26


В США все больше колледжей отказывается от цифрового формата экзаменов и возвращает студентов к написанию ответов от руки, в котором он должен показать умение формулировать мысли. Об этом пишет The Wall Street Journal. В то же время в России адепты цифровизации призывают как можно скорее внедрять ИИ в школах (как это снова сделал глава "Сбера" Герман Греф), иначе мы опоздаем. Но куда?
Что происходит в США? Почему образовательные заведения там пошли "поперек прогресса"?
Дело в том, что использование ChatGPT и других генеративных моделей стало массовым явлением для написания контрольных и прочих работ. При этом стоит отметить, что любая письменная работа учащегося в школе или вузе, будь то эссе, сочинение, расчетная работа или курсовой проект, по своей сути всегда является контрольной работой, так как она проверяет умение выполнять определенные действия, свидетельствующие о квалификации. Не только будущего специалиста, но и собственно человека, ведь умение писать или выражать свои мысли является неотъемлемой частью мыслящего человека.
Сегодня это не просто оказалось под угрозой, но и массово фальсифицируется. Фальсификация знаний стала обычным явлением для современного "прогрессивного" человека.
Политолог Сергей Михеев говорит, что это огромная проблема, которая может привести к тяжелейшим последствиям.
"С помощью всех этих ИИ-технологий люди фальсифицируют знания. Они фальсифицируют свои знания на экзаменах в школе, они фальсифицируют свои знания при написании работ, они врут при написании курсовых и дипломов. Получается, что по бумажке они вполне себе специалисты, а на самом деле не знают ничего. Чем это чревато? Тем, что, придя на место своей работы, они провалят любое задание, которое им будет дано. Появится целое поколение людей, которые не смогут ни думать, ни делать руками, ни принимать ответственные решения. При этом по бумажке, по диплому или по аттестату, они будут замечательными специалистами. И это приведет к тотальной лжи. Это одно из самых осязаемых последствий — фальсификация творчества, фальсификация знаний, изображений и т.д. Это одна сплошная тотальная фальшивка. И гордятся еще тем что, смотрите, нашу фальшивку от правды отличить нельзя. А что же тут замечательного? Если вы получаете технологию, с помощью которой можно обмануть огромное количество людей и они не будут способны отличать обман от правды, если огромное количество людей можно будет обманывать так, что они даже не будут понимать, что их обманывают, то главный вопрос: кто будет управлять всем этим и с какими целями? И энтузиасты тотального внедрения ИИ думают как раз о власти — тайной, но абсолютной", — рассказал Михеев на канале "Спас", комментируя призыв Грефа.
О влиянии ИИ на сознание человека говорят давно, об оглуплении — все чаще. Недавно были опубликованы, как утверждается, первые в истории результаты исследования влияния ИИ на мозг и умственные способности человека после использования чат-бота ChatGPT. Оно показало ужасающие результаты. Исследователи из Массачусетского технологического института отобрали 54 человека и разделили их на три группы для написания эссе: одни могли использовать ChatGPT и другие языковые модели, другие — пользоваться только поиском в интернете, а третьи писали по старинке без какой-либо помощи. И отслеживалась активность мозга участников с помощью электроэнцефалографии.
Оказалось, что у тех, кто регулярно использовал ИИ, наблюдалось значительное снижение умственной активности, количество активных нейронных связей упало в два раза. Они хуже запоминали информацию, испытывали трудности с формулировкой мыслей и показывали признаки снижения умственных способностей, в том числе поведенческих. Особенно заметным был эффект после четырех месяцев постоянного использования ИИ. Причем, когда участникам предложили поменяться группами, те, кто перешел с ИИ на самостоятельную работу, уже не смогли восстановить умственный уровень.
А вот, что показали те, кто начал использовать ИИ после самостоятельной работы. Они временно повысили продуктивность, но вскоре тоже произошел спад. Вывод очевиден: использование ИИ допустимо лишь в небольших объемах для действительно рутинной работы. После привыкания начинается отупение. Похоже на таблетки: в небольших дозах — можно, но если подсел — уже не слезешь. Ни дать ни взять — наркотик. И на такой наркотик некоторые адепты ИИ хотят подсадить детей. К чему это приведет?
Вот, что показал массачусетский эксперимент. 83% пользователей ChatGPT не смогли вспомнить, о чем было "их" эссе, написанное ИИ. Амнезия? Склероз? Нет, результат использования ИИ. Он просто тормозит работу мозга, действуя как парализующая технология. Иными словами, ведет человека к отупению.
Специалист по ИИ член СПЧ Игорь Ашманов, комментируя эксперимент, описал его кратко, но очень просто:
"Исследования показывают, что человек, который пытается решать поставленные задачи с помощью ИИ, тупеет очень быстро, сам решать их он уже не может. Причем когнитивные способности уже не восстанавливаются. Это когнитивная травма. Такие люди оставались тупыми даже по завершении эксперимента. Те, кто решал задачи самостоятельно, когнитивные способности сохраняют".
В начале июня, еще до обнародования результатов эксперимента в США, проблема цифровизации и ИИ обсуждалась в Нижнем Новгооде на Х конференции "Цифровая индустрия промышленной России". Одна из сессий называлась "Инвестиции бизнеса в образование: инновационные подходы к подготовке кадров". Выступившая на ней президент ГК InfoWatch и председатель правления Ассоциации разработчиков программных продуктов "Отечественный софт" Наталья Касперская сказала, что школьников и студентов нужно учить сегодня тому же, что 50 или 100 лет назад, — фундаментальным знаниям, а не нажиманию на кнопки смартфона. Последнему учить нет никакой необходимости, освоить это можно в два счета, а вот провалы в знаниях...
Надежды на ИИ, по ее убеждению, вредны и опасны.
"ИИ — это технология, которая априори "глючит". То есть она имеет ложноположительные и ложноотрицательные срабатывания, и добиться их обнуления невозможно. А это значит, что она гарантированно будет иметь какие-то ошибки. И мы будем давать это детям и студентам, а они будут воспринимать это как истину в последней инстанции. Этого нельзя допустить. Призывы все перевести на ИИ неправильны. ИИ — это электронный болван, давайте будем честно его называть. ИИ ухудшает память, люди уже ничего не помнят, они тут же лезут в интернет, они факты в голове не держат. Критичность мышления очень сильно падает, люди не в состоянии отличить правду от лжи, особенно молодые. А нам как раз нужны люди, которые будут делать всю инфраструктуру. Но если у них нет критического мышления, то как они это будут делать? Кроме того, быстрая коммуникация снижает способность глубокого погружения. Чтобы что-то изобрести, нужно просто отключиться от всего и начать над этим думать. Архимед и Ньютон не имели электронных устройств. А что придумают люди с электронным устройством в руках? И будут ли они придумывать? Не вырастим ли мы поколение имбецилов?" — вопрошает Касперская.
Фраза о том, что "прогресс не остановить", известна каждому. Но ранее прогресс в создании оружия привел к атомной бомбе, только испытать на себе этот прогресс никто не хочет. Похоже, ИИ тоже становится оружием, использование которого должно быть строго регламентировано: где его обязательно нужно применять, где — можно, а где — ни в коем случае. И, судя по уже имеющимся к настоящему времени результатам, образование в этом ряду где-то между третьей и второй группами, но точно не в первой.
Автор:
Евгений Чернышёв
https://www.nakanune.ru/articles/123675/ Это сообщение отредактировал charkov - 10.07.2025 - 20:16