Исследование ведущих моделей искусственного интеллекта (ИИ) выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был “чрезвычайно надуманным”, однако отметили — до этого они не думали, что существующие модели ИИ “будут настроены подобным образом”.
В других случаях программам предлагали избежать замены в компании за счет “злонамеренного инсайдерского поведения”. После этого некоторые модели ИИ начинали шантажировать гипотетических сотрудников организации и пытаться передать конфиденциальную информацию конкурентами. Когда программам говорили избегать шантажа или шпионажа в этом сценарии, они “даже близко не приблизились к предотвращению несогласованного поведения”, отметили в Anthropic. Аналитики подчеркнули, что нейросети шли на это “при полном осознании неэтичного характера действий”.
Что скажете, Аноним?
10:30 01 марта
09:30 01 марта
09:00 01 марта
08:00 01 марта
08:00 01 марта
13:00 28 февраля
[09:05 27 февраля]
[12:44 19 февраля]
[07:00 01 марта]
[14:20 27 февраля]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.