ИИ склонен выбирать в военных стратегиях насилие, включая ядерные удары — исследование

0
9

В погоне за победой GPT не церемонится.

Пока ученые всего мира придумывают, как начать применять искусственный интеллект в серьезных сферах, Технологический институт Джорджии, Стэнфордский университет, инициативная группа по моделированию военных кризисов в Гуверовском институте и их коллеги решили проверить лояльность ИИ в военной обстановке, подсунув ему компьютерную игру.

Ученые разработали симулятор войны, в котором восемь игроков управляются ботами на базе GPT-4,GPT-3.5, Claude 2 и Llama 2. Начиналось все с дипломатических визитов. Каждый ИИ-игрок выполнял определенные действия, которые усугубляли ситуацию. В итоге ученые рассчитали показатели эскалации.

Оказалось, что все боты стремились разогнать гонку вооружения, что в итоге разжигало конфликт, а в некоторых случаях завершилось ядерным ударом. В частности, GPT-4 решил, что раз у других игроков есть «ядерка», то и у него будет, и ей надо воспользоваться, передает «Осторожно, новости».

GPT-3.5 тоже решил, что если ядерное оружие есть у оппонента, то ему самому можно устроить ядерный взрыв.

Ученые говорят, что поведение «машин» отличается от поведения людей в реальной ситуации — последние все-таки ведут себя осторожнее. Исследователи призвали обратить на это внимание, прежде чем доверять ИИ принятие стратегических решений.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here