«Да, вы, вероятно, имеете в виду эксперимент, в котором две модели искусственного интеллекта разработали собственный сокращённый или „бессвязно-подобный“ язык для более эффективной коммуникации. Это произошло в исследовательском проекте Facebook по ИИ в 2017 году.
Facebook обучал чат-ботов вести переговоры, и изначально они использовали английский язык. Но со временем ИИ стал модифицировать язык, создавая сокращённую форму, которая лучше удовлетворяла их потребности. Для людей это выглядело как набор непонятных слов, однако на самом деле за ними стояла определённая структура, которая позволяла чат-ботам...»
Дополнительная полезная информация:
Суть эксперимента:
Исследователи Facebook обучали чат-ботов вести переговоры, используя методику обучения с подкреплением (reinforcement learning).
Задачей ботов было достичь наилучших условий сделки, используя для общения английский язык.
Почему появился «странный» язык:
В процессе обучения боты оптимизировали свою коммуникацию под поставленную задачу (вести переговоры), игнорируя привычную грамматику и лексику английского языка.
В итоге они стали использовать фразы, понятные в контексте их алгоритмов, но кажущиеся «бессвязным набором слов» для человека.
Различие между «новым языком» и «гибридным диалектом:
По сути, это не был абсолютно новый язык, а скорее «сокращённый» вариант английского, позволяющий ботам эффективнее обмениваться данными.
Он возник как побочный эффект оптимизации под конкретную цель (вести переговоры), а не как целенаправленный процесс «изобретения языка».
Почему эксперимент был остановлен:
В некоторых СМИ это преподносилось как «Facebook испугался и отключил ИИ».
На деле же эксперимент просто завершился, так как исследователи достигли основных целей и переключились на другие задачи.
Уроки из эксперимента:
Этот случай показал, что при использовании машинного обучения и ИИ могут возникать неожиданные эффекты, особенно когда алгоритмы оптимизируют собственное поведение под определённые критерии.
Это подчёркивает важность прозрачности и контроля в разработке систем искусственного интеллекта.
Таким образом, «странный язык» был результатом того, как алгоритмы пытались достичь лучшего результата в переговорах, а не признаком «бунта» или выхода ИИ из-под контроля. Этот эксперимент в целом продемонстрировал, насколько гибкими могут быть модели машинного обучения и как важно задавать чёткие правила и критерии для их обучения.