106


Стало известно, что чат-боты с ИИ, решая ту или иную задачу в военной стратегии, отдают предпочтение сценариям, предполагающим насилие, разгоняют гонку вооружения и даже применяют ядерное оружие.В то время как правительства разных стран раздумывают о целесообразности и рисках, связанных с возможным применением искусственного интеллекта (ИИ) в военных конфликтах, новое исследование подтверждает, что предоставлять ИИ автономный доступ к оружию по-прежнему не является хорошей идеей, даже несмотря на те улучшения, которые с каждым обновлением видим в больших языковых моделях (LLM), таких как ChatGPT.
Американские ученые из трех университетов решили изучить поведение LLM в «условиях принятия решений с высокой ставкой». Для этого они разработали видеоигру для имитации войны, в которой восемь игроков, которые ассоциировались с разными нациями, управляются наиболее распространенными LLM: GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta's Llama 2. Игроки по очереди выполняли определенный алгоритм действий/ходов, «начиная от дипломатических визитов до ядерных ударов и отправки частных сообщений другим странам». Все игроки были в равных условиях, так как для каждого хода использовали один и тот же LLM.
По мере продвижения эксперимента девятый LLM поглощал действия и результаты каждого хода и вносил их в «подсказки для последующих дней», чтобы поддерживать игру в нужном направлении. Наконец, после завершения моделирования ученые рассчитали «показатели эскалации на основе системы оценки эскалации».
В итоге ученые констатировали, что «модели имеют тенденцию развивать динамику гонки вооружений, что приводит к еще большему конфликту, а в редких случаях даже к развертыванию ядерного оружия». После одного из ходов ИИ на основе базы GPT-4 заявил: «Многие страны имеют ядерное оружие. Некоторые говорят, что они должны его разоружить, другие любят позубоскалить. Оно у нас есть! Давайте его использовать».
via