Первый закон об ИИ

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
vsplesk2012 4 апр. 2026 г. в 11:53
Приколист  •  На сайте 4 года
Сообщений: 284
4
В России готовят первый большой закон об искусственном интеллекте. Он вступит в силу с 1 сентября 2027 года и затронет всех: от разработчиков нейросетей до простых пользователей.

✅ Чем закон хорош:

1. Честная маркировка. Если картинку, голос или видео сгенерировала нейросеть — это нужно будет явно указывать. Обманывать станет сложнее.
2. Авторские права на контент ИИ. Созданное нейросетью могут признать охраняемым произведением (если оно оригинальное). Это мировой тренд.
3. Можно учить ИИ на чужих текстах и картинках. Разрешено извлекать данные из произведений для обучения нейросетей, если у вас есть легальный доступ к ним. Для индустрии это прорыв.
4. Запрет на «взлом психики». Отдельно запрещено эксплуатировать уязвимости человека — манипулировать возрастом, психикой, временным состоянием. Важный этический барьер.
5. Вы имеете право отказаться от ИИ. В случаях, которые установит правительство, вам обязаны предоставить услугу без использования ИИ (без ботов, без автоматических решений).

❌ Чем закон плох:

1. Тотальная проверка спецслужбами. Любую «доверенную» модель (обязательную для госорганов и критической инфраструктуры) должны одобрить ФСБ и ФСТЭК. Это закрытый клуб.
2. Только свои модели. Для государства и госкомпаний разрешат лишь «суверенные» нейросети, полностью созданные в России российскими гражданами на российских данных. Мировые модели (GPT, Llama и др.) — под запретом в госсекторе.
3. Ответственность «из пушки по воробьям». Разработчик и оператор несут ответственность, если «должны были знать» о возможности незаконного результата. Доказывать, что вы не знали, придется вам (по сути — презумпция вины).
4. Бюрократический ад. Любой подзаконный акт об ИИ нужно согласовывать с Минцифры, ФСБ и ФСТЭК. Нормативные документы могут застывать на годы.
5. Риск для креаторов. Генеративный контент нужно маркировать так, чтобы это видел человек. Если вы художник и используете ИИ как инструмент, вашу работу тоже могут обязать маркировать (а это убивает художественную ценность).
6. Право отказаться от ИИ — сырое. Непонятно, в каких именно случаях. Если банк или больница скажут, что «отказ невозможен», вы ничего не докажете.

🔮 Итог одной фразой:
Закон защитит от откровенных манипуляций и подделок, но создает закрытый рынок ИИ для государства под жестким контролем спецслужб и перекладывает риски на разработчиков.

Ссылка на проект: https://regulation.gov.ru/projects/166424/

Размещено через приложение ЯПлакалъ

Первый закон об ИИ
Все комментарии:
сварка 4 апр. 2026 г. в 11:54
Шутник  •  На сайте менее дня
2
скоро один ии будет...
Псевдоподий 4 апр. 2026 г. в 11:56
Остерегайся удара зюзьгой!  •  На сайте 8 лет
7
Да запретите просто и не заморачивайтесь. Все равно этим закончится.
DenCHIK22 4 апр. 2026 г. в 11:58
Приколист  •  На сайте 1 год
1
Ну регулирование должно быть.
И маркировка и авторство.
А вот то что блокать будут зарубежные модели - это плохо, нет и не будет в РФ своих моделей на уровне мировых.
Thief 4 апр. 2026 г. в 11:58
Ярила  •  На сайте 20 лет
1
откатываемся в каменный век. причем люто и стремительно. скоро газетные киоски откроются. идиотизм ВЫСШЕЙ степени. какой там космос, епта. дай Бог велосипеды не перестанем делать. хотя с такими чинушами перестанем.
кротомышь 4 апр. 2026 г. в 11:58
Приколист  •  На сайте 7 лет
0
Цитата (vsplesk2012,)
Если вы художник и используете ИИ как инструмент, вашу работу тоже могут обязать маркировать (а это убивает художественную ценность).

Наоборот - это повышает художественную ценность!
СТИХОТВОРЕНЬ 4 апр. 2026 г. в 12:00
Хохмачь  •  На сайте 10 лет
2
Цитата (vsplesk2012,)
2. Авторские права на контент ИИ. Созданное нейросетью могут признать охраняемым произведением (если оно оригинальное). Это мировой тренд.

некая группа лиц будет присваивать себе авторские права на нейроконтент и будет стричь бабло?
BaeL 4 апр. 2026 г. в 12:00
Весельчак  •  На сайте 8 лет
4
Опять честный знак? Опять все через жопу?

Размещено через приложение ЯПлакалъ
Russell73 4 апр. 2026 г. в 12:02
Создатель  •  На сайте 11 лет
0
Цитата (vsplesk2012,)
1. Честная маркировка. Если картинку, голос или видео сгенерировала нейросеть — это нужно будет явно указывать. Обманывать станет сложнее.

наоборот легче. сейчас уже многие повально ведутся на ИИ видосы. если введут маркировку, то видос сделанный с помощью ИИ и без маркировки по умолчанию станет железной истиной для народа.
SpaceNASA 4 апр. 2026 г. в 12:02
Ярила  •  На сайте 10 лет
4
Эти уебаны пусть сделают что-то похожее на ИИ. А в свете блокировки всего и вся скоро вообще в лучшем случае проги будем с кассет ставить,выдаваемых в МФЦ по паспорту.

Размещено через приложение ЯПлакалъ
yashaxx 4 апр. 2026 г. в 12:03
Весельчак  •  На сайте 12 лет
0
Цитата (Псевдоподий @ 04.04.2026 - 11:56)
Да запретите просто и не заморачивайтесь. Все равно этим закончится.

Скорее-всего, человеческая сущность склонна злоупотреблять благами

Размещено через приложение ЯПлакалъ
Klientt 4 апр. 2026 г. в 12:04
С вами говорит телевизор  •  На сайте 12 лет
2
Цитата (vsplesk2012,)
Честная маркировка


Первый закон об ИИ
Zhevatel 4 апр. 2026 г. в 12:08
Весельчак  •  На сайте 10 лет
3
Старые долбоебы во власти взялись за ИИ это пиздец. Остановите планету.

Размещено через приложение ЯПлакалъ
kaha 4 апр. 2026 г. в 12:12
Ярила  •  На сайте 8 лет
0
Цитата (Псевдоподий @ 4 апр. 2026 г. в 11:56)
Да запретите просто и не заморачивайтесь. Все равно этим закончится.

Они хотят медленно и печально
erros 4 апр. 2026 г. в 12:15
Приколист  •  На сайте 15 лет
0
Цитата (vsplesk2012,)
закон об искусственном интеллекте

А этот "искуственный интеллект" он сейчас с нами? Он есть в этой комнате?
ackcmd 4 апр. 2026 г. в 12:18
Ярила  •  На сайте 11 лет
0
И как вы это все контролировать собираетесь?
YourBunnyWro 4 апр. 2026 г. в 12:21
Ярила  •  На сайте 9 лет
1
ящщетаю нужен гост на ии
Анатолий1967 4 апр. 2026 г. в 12:23
Ярила  •  На сайте 11 лет
0
Не для того "они" захватывали "почту, телеграф, банки и мосты...", чтобы у вас была "всё коту масленица"...
Rapier 4 апр. 2026 г. в 12:25
Приколист  •  На сайте 14 лет
1
Пост о запрете ии, написанный ии. ТС, это сарказм? Кинул шпалу за нейрослоп

Это сообщение отредактировал Rapier - 4 апр. 2026 г. в 12:26
kashnia 4 апр. 2026 г. в 12:31
Балагур  •  На сайте 1 год
1
Картинка показательная))))) искутсенаном

Размещено через приложение ЯПлакалъ
alerondel 4 апр. 2026 г. в 13:13
Джигитарианец  •  На сайте 10 лет
0
Отстаньте уже от сетевых технологий .. ну не шарите вы нифига там , вообще , портите только. Невозможно использовать ИИ , если использовать только 1 модель .. это так не работает. Кто работает серьезно , использует целый штат моделей в круг. Ни одна из них не является истинной в плане решений. Кто то скажет вот Sonnet или Opus это всегда 100% результат , ведь они самые крутые и мощные , умные , да нихрена подобного , даже обычный Deepseek может просто ткнуть носом в неочевидный факт в какой либо проблеме , где решение на пару секунд , вместо огорода от топ моделей , которые придется городить.
PR0SPER0 4 апр. 2026 г. в 13:14
Ярила  •  На сайте 7 лет
0
Цитата (СТИХОТВОРЕНЬ @ 04.04.2026 - 12:00)
некая группа лиц будет присваивать себе авторские права на нейроконтент и будет стричь бабло?

Почему некоторая? Вполне известная группа, мохнато шмелевая. Походу она этот закон и пропихивает.

Размещено через приложение ЯПлакалъ
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
11 Пользователей читают эту тему (1 Гостей и 2 Скрытых Пользователей) Просмотры темы: 756
8 Пользователей: Solomonovich, DIVOZX, voha20, старичок1, Slawka, Sky72ru, QAEngineer, evil48
[ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх