Согласно журналу Wired, новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом.
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.
Когда в прошлом году Цукурберга спросили, строит ли он бункер на случай конца света — основатель Facebook ответил категорическим “нет”. По его словам, подземное пространство — “просто небольшое убежище, похожее на подвал”.
Но это не остановило спекуляции — как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью в 650 квадратных метров.
Автор фото, Bloomberg via Getty Images
В разрешении на строительство говорится, что Цукерберг оборудует подвалы, но, по данным New York Times, некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.
Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.
Рейд Хоффман, соучредитель LinkedIn, говорил о “страховке от апокалипсиса”. По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов — Новая Зеландия.
Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы еще не знаем?
Автор фото, Getty Images News
В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.
Илья Суцкевер, главный научный сотрудник и соучредитель Open AI, по сообщениям, является одним из них.
К середине 2023 года, когда компания из Сан-Франциско выпустила ChatGPT — чат-бота, который сейчас используют сотни миллионов людей по всему миру, — и быстро работала над обновлениями, Суцкевер все больше убеждался, что компьютерные ученые находятся на грани разработки общего искусственного интеллекта (ОИИ) — момента, когда машины сравняются с человеческим интеллектом.
В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих ученых компании до того, как такая мощная технология будет выпущена в мир.
Автор фото, AFP via Getty Images
“Мы обязательно построим бункер, прежде чем выпустим ОИИ”, — сказал Суцкевер, хотя неясно, кого он имел в виду под словом “мы”.
Это проливает свет на странный факт: многие ведущие компьютерные ученые и технологические лидеры, некоторые из которых усердно работают над разработкой чрезвычайно интеллектуальной формы ИИ, также, похоже, глубоко опасаются того, что к чему это однажды может привести.
Так когда же именно — если вообще когда-нибудь — появится ОИИ? И действительно ли он может оказаться настолько революционной технололгией, что обычные люди начнут его бояться?
Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдет “раньше, чем думает большинство людей в мире”.
Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдет в ближайшие пять-десять лет, а основатель Anthropic Дарио Амодей написал в прошлом году, что “мощный ИИ” может появиться уже в 2026 году.
Другие относятся к этому скептически. “Они постоянно меняют правила игры, — говорит Венди Холл, профессор информатики Университета Саутгемптона. — Все зависит от того, с кем вы разговариваете”.
“Научное сообщество утверждает, что технология ИИ потрясающая, — добавляет она. — Но она далека от человеческого интеллекта”.
Сначала необходимо будет совершить ряд “фундаментальных прорывов”, соглашается Бабак Ходжат, технический директор технологической компании Cognizant.
И вряд ли это произойдет в один момент. Скорее, ИИ — это быстро развивающаяся технология, которая находится в стадии становления, и многие компании по всему миру стремятся разработать свои собственные версии этой технологии.
Но одна из причин, по которым эта идея волнует некоторых в Кремниевой долине, заключается в том, что она считается предшественником чего-то еще более продвинутого: искусственного сверхинтеллекта — технологии, превосходящей человеческий интеллект.
Еще в 1958 году концепция “сингулярности” была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдет человеческое понимание.
Автор фото, Getty Images
В книге “Генезис 2024”, написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, исследуется идея сверхмощной технологии, которая становится настолько эффективной в принятии решений и руководстве, что мы в конечном итоге полностью передаем ей контроль.
По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдет.
Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумные ИИ помогут найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.
Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре “всеобщего высокого дохода”.
Недавно он поддержал идею о том, что ИИ станет настолько дешевым и распространенным, что практически каждый захочет иметь “своего личного R2-D2 и C-3PO” (ссылаясь на дроидов из “Звездных войн”).
“У каждого будет лучшее медицинское обслуживание, еда, транспорт и все остальное. Устойчивое изобилие”, — восторженно заявил он.
Конечно, есть и страшная сторона. Может ли эта технология быть захвачена террористами и использована в качестве оружия, или что, если она сама решит, что человечество является причиной мировых проблем, и уничтожит нас?
Автор фото, AFP via Getty Images
“Если что-то умнее нас, то мы должны держать это под контролем, — предупредил Тим Бернерс-Ли, создатель Всемирной паутины. — Мы должны иметь возможность это отключить”.
И государства уже принимают защитные меры. В США, где базируются многие ведущие компании в области ИИ, президент Байден в 2023 году подписал указ, обязывающий некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его “барьером” для инноваций.
В Великобритании два года назад был создан Институт безопасности ИИ — финансируемый государством исследовательский орган — для лучшего понимания рисков, связанных с передовым ИИ.
Но есть сверхбогатые люди, у которых есть свои планы “страховки от апокалипсиса”.
“Когда кто-то говорит, что он „покупает дом в Новой Зеландии“, — это своего рода намек, мол, „все понятно, дальше можно не объяснять“”, — ранее говорил сооснователь LinkedIn Рид Хоффман.
То же самое, по всей видимости, касается и бункеров. Но тут есть одна сугубо человеческая слабость.
Однажды я встретила бывшего телохранителя миллиардера, у которого был собственный “бункер”. Он рассказал, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и занятие бункера. И, похоже, он не шутил.
Автор фото, Getty Images
Нил Лоуренс — профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.
“Понятие общего искусственного интеллекта столь же абсурдно, как и понятие “искусственного общего транспортного средства”, — утверждает он.
“Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий... Нет такого транспортного средства, которое могло бы делать все это”.
Для него разговоры об ОИИ — это отвлекающий маневр.
“Технологии, которые мы [уже] создали, впервые позволяют обычным людям напрямую общаться с машиной и потенциально заставлять ее делать то, что они хотят. Это абсолютно необыкновенно... и совершенно революционно”.
“Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей”.
Автор фото, Getty Images
Современные инструменты искусственного интеллекта обучаются на огромных массивах данных и хорошо распознают закономерности: будь то признаки опухоли на снимках или слово, которое с наибольшей вероятностью следует за другим в определенной последовательности. Но они не “чувствуют”, какими бы убедительными ни казались их ответы.
“Есть некоторые „хитрости“, которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится, но они неудовлетворительны и значительно уступают человеческим способностям”, — говорит Бабак Ходжат.
Винс Линч, генеральный директор калифорнийской компании IV.AI, также с осторожностью относится к преувеличенным заявлениям о сверхинтеллекте.
“Это отличный маркетинговый ход, — говорит он. — Если ваша компания создает самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги”.
Он добавляет: “Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок”.
Автор фото, Getty Images
В некотором смысле ИИ уже превзошел человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую — решать сложные математические уравнения.
Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что ее системы ИИ совершенствуются.
Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов, что намного больше, чем у искусственных аналогов.
Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.
“Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит, и это повлияет на его мировоззрение. А вот для LLM [большой языковой модели] это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт”, — говорит Ходжат. — LLM также не обладают метапознанием, что означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают”.
Это фундаментальная часть человеческого интеллекта, которую еще предстоит воспроизвести в лаборатории.
![]() ![]() ![]() ![]() |
Что скажете, Аноним?
[18:25 12 октября]
Еще в 2014 году Марк Цукерберг начал работу над Koolau Ranch — обширным жилым комплексом площадью 1400 акров на гавайском острове Кауаи.
[07:06 11 октября]
[10:45 10 октября]
Историк Илья Венявкин ищет ответ в биографиях девяти представителей режима
19:50 12 октября
13:00 12 октября
12:30 12 октября
12:00 12 октября
11:30 12 октября
10:00 12 октября
09:30 12 октября
09:00 12 октября
[10:30 29 сентября]
Россия не смогла достичь своей главной цели — уничтожения украинской нации
[07:30 27 сентября]
[13:50 22 сентября]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.