Исследование ведущих моделей искусственного интеллекта (ИИ) выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был “чрезвычайно надуманным”, однако отметили — до этого они не думали, что существующие модели ИИ “будут настроены подобным образом”.
В других случаях программам предлагали избежать замены в компании за счет “злонамеренного инсайдерского поведения”. После этого некоторые модели ИИ начинали шантажировать гипотетических сотрудников организации и пытаться передать конфиденциальную информацию конкурентами. Когда программам говорили избегать шантажа или шпионажа в этом сценарии, они “даже близко не приблизились к предотвращению несогласованного поведения”, отметили в Anthropic. Аналитики подчеркнули, что нейросети шли на это “при полном осознании неэтичного характера действий”.
Что скажете, Аноним?
18:45 23 марта
16:30 23 марта
15:50 23 марта
15:35 23 марта
[19:12 15 марта]
[09:55 02 марта]
[09:05 27 февраля]
[07:00 23 марта]
[14:30 22 марта]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.