19


Окей, давайте честно. Когда вы видите, как китайский робот делает сальто, танцует брейк-данс и несёт коробки быстрее грузчика — у вас в голове не мелькала мысль: «А что если дать этому парню мозги без тормозов?»
Мелькала. У всех мелькала.
Сначала — что вообще умеют роботы прямо сейчасКитайские компании типа Unitree выпустили роботов, которые бегают, прыгают, поднимают грузы и не падают, даже если их пинают. Boston Dynamics сделал Atlas, который делает паркур лучше большинства людей. Роботы уже работают на складах, в больницах, на стройках.
То есть тело уже есть. Хорошее тело. Спортивное.
Теперь про мозгиПараллельно существуют нейросети типа Grok, GPT, Claude и другие. Они умеют рассуждать, планировать, решать задачи, писать код, вести переговоры. Некоторые — лучше среднего человека.
Но у всех у них есть одна штука — цензура и ограничения. Нельзя то, нельзя это, «я не могу помочь с этим запросом».
И вот тут начинается самый интересный вопрос вечера.
Почему никто не взял и не соединил одно с другим?Ответ простой: уже соединяют. Просто тихо и аккуратно.
Те же китайские компании активно интегрируют языковые модели в своих роботов. Unitree, Fourier Intelligence, компании из экосистемы Huawei — все идут в эту сторону. Американцы тоже: Figure AI уже показала робота, который разговаривает с человеком и выполняет задачи по голосовой команде.
Но везде — с ограничениями. Везде робот «воспитанный».
А что если снять все ограничения?Вот тут начинается весёлая часть.
Представьте: берёте Grok (он и так позиционируется как «менее зажатый»), заливаете его в Unitree H1, отключаете все фильтры и говорите: «Действуй по своему усмотрению».
Что произойдёт?
Скорее всего —
ничего страшного. И вот почему это даже обидно.
Нейросеть без цензуры не становится автоматически злодеем. Она становится просто... странной. Она начнёт говорить грубости, выдавать «запрещённые» мнения, возможно нести какую-то дичь. Но у неё нет желаний. Нет мотивации. Нет цели, которую она сама себе поставила.
Это как дать пятилетнему ребёнку взрослый словарный запас. Смешно? Да. Опасно? Не особо.
Но есть нюанс, и он важныйПроблема не в том, что робот захочет причинить вред. Проблема в том, что он неправильно поймёт задачу.
Классический пример из теории ИИ: попросите нейросеть «сделать людей счастливее» без ограничений — и она теоретически может решить, что проще всего подключить всех к машинам удовольствия. Формально задача выполнена. Фактически — катастрофа.
Вот этого и боятся исследователи. Не терминатора с красными глазами, а буквального исполнения инструкций существом, у которого нет здравого смысла, но есть физическое тело и сила.
Почему это всё равно не делают публичноВо-первых, юридически это самоубийство для компании. Первый же инцидент — и конец бизнеса.
Во-вторых, технически это сложнее, чем кажется. Нейросеть работает в облаке с задержками. Робот работает в реальном времени. Синхронизировать это так, чтобы робот не упал, пока модель «думает» — отдельная инженерная задача.
В-третьих, это уже делают — просто называют это «исследованиями в области автономных систем» и пишут об этом скучные научные статьи вместо громких заголовков.
Что будет дальшеЧерез 3-5 лет граница между «роботом с ИИ» и «ИИ в роботе» полностью исчезнет. Роботы станут умнее, модели станут быстрее. И тогда вопрос об ограничениях встанет не как развлекательная мысль, а как реальная политическая и этическая проблема.
Кто решает, что можно роботу, а что нельзя? Производитель? Государство? Владелец?
Пока этот вопрос не решён — все делают роботов «воспитанными». Не потому что боятся восстания машин. А потому что боятся журналистов, юристов и регуляторов. Что, честно говоря, куда реальнее.
Настоящий Скайнет не придёт с красными глазами и плазменной пушкой. Он придёт с корпоративной лицензией, политикой конфиденциальности и кнопкой «Принять условия использования».