Ханс Х. Луйк: Разработчикам ИИ в США все равно, сколько людей может погибнуть, а Европа этично отстает

Мнения

Армия США будет закупать ИИ только у компаний, которые не запрещают машинам убивать людей. Предприниматель и инвестор Яан Таллинн недавно предупредил, что инженеры, занимающиеся искусственным интеллектом, сейчас работают в условиях гонки и не всегда задумываются о последствиях.

Никто в странах Балтии не считает искусственный интеллект столь опасным, как инженер Яан Таллинн, никто не разбогател благодаря этому, как миллиардер Яан Таллинн, и ни один уроженец стран Балтии не вступал в такой конфликт с правительством США, как компания Anthropic, занимающаяся ИИ, акции которой сделали Яана самым богатым человеком в Эстонии.

Недавно визионер и инвестор Яан Таллинн предупредил в узком кругу: в эти дни разработчики искусственного интеллекта в США делают нечто чрезвычайно опасное. Среди слушателей в квартале Telliskivi находился и The Lithuania.

„Журналисты, попробуйте проникнуть в среду инженеров, работающих с искусственным интеллектом. Вы увидите, с каким лихорадочным рвением несколько команд создают беспрецедентные инструменты. Инженерам там все равно, сколько людей может погибнуть: они мыслят иначе. Если кто-то погиб, мы просто улучшаем решение и пробуем снова. Снова были человеческие жертвы? Посмотрим и исправим ошибки. Главное, чтобы конкурент не опередил нас“.

Таллинн разрешил процитировать и своё самое мрачное опасение: современный Гитлер, ведя войну с помощью искусственного интеллекта, мог бы быстро уничтожать целые народы.

Никогда прежде Пентагон не выяснял отношения в соцсетях по поводу военных контрактов так, как сегодня он спорит с компанией Anthropic. Anthropic защищает те же моральные границы, которые и заставили тревожиться ее эстонского инвестора. Яан Таллинн инвестировал в искусственный интеллект Anthropic в то время, когда его стоимость составляла всего около 124 миллионов долларов. Компания вот-вот должна была достичь отметки в треть триллиона долларов на фондовом рынке. Теперь президент США и министр обороны объявили компанию в социальных сетях не заслуживающей доверия.

Кстати, еще до этого пошатнулось доверие некоторых ключевых сотрудников Anthropic к тому, что разработки, ведущиеся с огромной скоростью, не будут использованы в аморальных целях. Несколько сотрудников ушли, возможно, кто-то из них как раз разрабатывал то самое военное приложение и увидел, что оно может допускать ошибки вопреки человеческому контролю или даже действуя самостоятельно.

Искусственный интеллект не заботится об этике, на это намекали даже рекламные ролики во время Super Bowl. Теперь глава Anthropic Дарио Амадей сообщил, что военные планировали захват президента Венесуэлы Николаса Мадуро и другие операции с помощью разработанного его компанией искусственного интеллекта. Благодаря этому США ведут войну очень эффективно, что признали в Anthropic, но компания потребовала внести некоторые ограничения в контракт с Пентагоном. Мир также узнал, что в вооружении США используется искусственный интеллект не только Anthropic, но и Google и других компаний.

Министр обороны США Пит Хегсет вновь заявил в социальных сетях, что выгнал компанию Anthropic из Пентагона „как собаку“. Президент Трамп в ответ назвал одну из самых перспективных компаний страны в области искусственного интеллекта левой. Пентагон, в свою очередь, запретил своим подрядчикам любое сотрудничество с Anthropic. Пентагон смягчил этот запрет, и контракт с компанией, в которую входит Яан Таллинн, быстро перешел к другому лидеру в области ИИ — OpenAI. Полтора миллиона пользователей OpenAI были возмущены и отменили свои подписки.

Небрежность OpenAI, из-за которой созданный ею искусственный интеллект может представлять угрозу для людей, когда-то вынудила Дарио Амадея вместе со своей сестрой и несколькими коллегами уйти оттуда и основать компанию Anthropic, ориентированную на соблюдение этических принципов. Теперь он требует в суде от Министерства обороны США восстановления контракта с включением пункта о том, что Пентагон не будет использовать искусственный интеллект для слежки за американцами (это может намекать на деятельность Национальной гвардии в городах США) и не будет убивать врагов без приказа военного офицера).

Вопрос в том, должны ли военные прислушиваться к частной компании или покупать технологии и использовать их в боевых действиях в соответствии с законом. В настоящее время США активно используют искусственный интеллект в своих военных операциях, в том числе и при бомбардировках Ирана. Когда Великобритания выразила сомнения в оправданности операции против Ирана, президент США Дональд Трамп приостановил ряд совместных технологических проектов с Лондоном.

Британский офицер резерва ВМС и специалист по киберзащите Адриан Венейблс отмечает, что этичное использование искусственного интеллекта в настоящее время является одной из самых быстро привлекающих внимание тем. По его словам, между крупнейшими мировыми технологическими компаниями фактически идет „гонка вооружений в области ИИ“, в рамках которой создаются все более мощные системы.

В настоящее время разные модели обладают различными сильными сторонами: например, система Anthropic Claude выделяется в программировании, тогда как Chat GPT от OpenAI сильна в анализе и рассуждениях. Однако по мере развития моделей у них появляются способности, которые их создатели изначально не могли предвидеть. Это усложняет ситуацию, потому что новые алгоритмы стали настолько сложными, что даже самим разработчикам трудно понять, как они приходят к своим выводам.

„Если мы не понимаем, как искусственный интеллект принимает решения, всегда существует риск, что результат окажется предвзятым или опасным“, — подчеркивает Венейблс. По его словам, проблему усугубляет также то, что компании держат методы обучения своих моделей в строгой тайне. Одновременно растет зависимость общества от искусственного интеллекта, а вместе с ней и риски: социальная манипуляция и массовая слежка, экономическая и политическая дестабилизация, а также потеря приватности данных и снижение человеческого контроля.

Венейблс обращает внимание на то, что для обычных пользователей искусственный интеллект в настоящее время имеет определенные этические ограничения, которые не позволяют ему отвечать на опасные или незаконные вопросы. Например, ИИ обычно не дает инструкций по созданию вредоносного ПО, производству наркотиков, изготовлению оружия или подделке документов.

Недавно искусственный интеллект Илона Маска Grok также вызвал споры: генератор изображений пришлось временно отключить, потому что его использовали для создания обнаженных изображений реальных людей. Венейблс подчеркивает, что такие ограничения не означают, что система не способна выполнять эти действия, просто обычным пользователям ответы не предоставляются. „Вполне возможно, что внутри компаний разработчики имеют доступ к этим ответам и видят истинные возможности систем“, — говорит он.

Поэтому, по его мнению, осторожность компании Anthropic в работе с Пентагоном может быть связана со страхом, что неограниченное использование системы в военных операциях может привести к неэтичным или даже незаконным последствиям. В таком случае ущерб репутации компании может быть катастрофическим.

По словам Венейблса, политический аспект также усиливает напряженность. Например, летом 2025 года президент США Дональд Трамп призвал к сокращению регулирования искусственного интеллекта, чтобы США могли „выиграть гонку ИИ“. В то же время большинство американских компаний в сфере ИИ расположены в штатах, где большинство поддерживает политический курс Демократической партии и где компании могут относиться более критично как к использованию технологий в военных целях, так и к политике администрации Трампа. В конечном итоге, однако, компании могут сами решать, какие ограничения они вводят для своей продукции.

„Существует реальная опасность, что если частный сектор установит слишком много ограничений, американские военные будут пытаться развивать системы ИИ с партнерами, которые не используют вообще никаких защитных барьеров“, — предупреждает Венейблс. По его словам, в настоящее время мы не в состоянии предвидеть возможные последствия. Люди стремятся максимально использовать возможности искусственного интеллекта и одновременно держать его под контролем.

Искусственный интеллект поймал Мадуро у бассейна

Помимо прочего, в ходе дискуссии об этичности использования искусственного интеллекта выяснилось, что Министерство обороны США использовало искусственный интеллект в операции, в ходе которой была нейтрализована охрана президента Венесуэлы Николаса Мадуро, а сам венесуэльский диктатор был взят под стражу.

Александр Коваленко, украинский военный аналитик и эксперт по военной технике, говорит, что роль искусственного интеллекта в операции в Венесуэле заключалась не в принятии прямого решения о нападении, а в быстром и точном определении целей и анализе разведывательных данных. По его словам, такие системы все чаще используются в ситуациях, когда необходимо быстро обработать большой объем данных со спутников и камер визуального наблюдения.

Искусственный интеллект используется для идентификации целей – распознавания лиц, отслеживания объектов и моделей движения. В частности, большая языковая модель, такая как Claude, не ищет цели на спутниковых снимках сама, но очень полезна для анализа огромного количества разведывательных данных – отчетов, сбоев связи, информации с датчиков и результатов систем распознавания изображений, чтобы дать командирам четкую оценку ситуации для дальнейших действий“, – поясняет Коваленко.

По словам эксперта, анализ спутниковых снимков мог стать ключевым моментом в операции, приведшей к захвату Николаса Мадуро. „Мадуро пришел днем ​​к бассейну на своей вилле, поплавал, а затем вернулся домой. Спутник это заметил“, — отмечает Коваленко. Затем разведывательные системы могли использовать искусственный интеллект, чтобы быстро подтвердить, действительно ли на снимках изображен венесуэльский диктатор. „ИИ смог очень быстро идентифицировать Мадуро: по его лицу, позе, походке и другим признакам“.

Подобные системы не являются для военных чем-то новым. Пентагон уже много лет разрабатывает разведывательные платформы на основе искусственного интеллекта, способные одновременно обрабатывать спутниковые снимки, видеоматериалы с беспилотников, данные связи и другую информацию с датчиков. Одна из таких программ — проект Maven, используемый Пентагоном, целью которого является применение машинного обучения для анализа спутниковых и других наблюдательных данных и выявления потенциальных целей.

Такие системы могут автоматически обнаруживать, например, транспортные средства, здания и конкретных людей, и передавать результаты аналитикам, которые решают, достаточно ли достоверна информация для начала операции.

Именно такая технология меняет темп современной разведывательной работы. Если раньше аналитикам приходилось вручную просматривать тысячи фотографий и видеозаписей, то теперь алгоритмы могут выполнить ту же работу за минуты или часы. Однако это не означает, что решения будут принимать машины: большинство западных стран подчеркивают, что искусственный интеллект в первую очередь функционирует как система поддержки принятия решений, помогая людям находить закономерности в огромных массивах данных и быстрее выявлять потенциальные цели.

Гонка в области ИИ: США и Китай впереди, Европа позади

В настоящее время только две страны полностью разработали собственную военную экосистему ИИ: США и Китай. Европа же сильно отстает в этой гонке. В то время как США и Китай подняли свои военные возможности на совершенно новый уровень, Европа все еще обсуждает правила и нормы. Все это также означает, что если Европа хочет стать более независимой в развитии ИИ и военных приложений, ей также необходимо развивать собственное производство чипов, потому что без мощных процессоров и графических ускорителей невозможно обучать большие системы ИИ.

Однако Танель Таммет, профессор, специализирующийся на изучении искусственного интеллекта в Таллиннском технологическом институте, утверждает, что картина может быть не такой мрачной, как иногда представляют. По его словам крупные американские компании в настоящее время действительно имеют преимущество в разработке искусственного интеллекта, поскольку у них больше денег, больше высококвалифицированных специалистов и огромные вычислительные ресурсы. Но это не означает, что ЕС или Великобритания автоматически выбывают из игры в долгосрочной перспективе.

„Обучение больших языковых моделей требует огромной вычислительной мощности и тысяч специальных графических ускорителей, на которых крупные компании построили свои собственные суперкомпьютеры“, — объясняет он. Однако, по его мнению, технологическое отставание не всегда настолько одностороннее, как иногда считают.

Таммет также полагает, что утверждения, будто Европа никогда не сможет догнать американских гигантов в области ИИ, не обязательно реалистичны. „Развитие ИИ — это не линейный процесс, где одна сторона просто мчится вперед, а другие никогда не догонят“, — говорит он. Новые алгоритмы, модели с открытым исходным кодом и научное сотрудничество могут довольно быстро изменить технологический баланс.

Более строгая защита данных также не означает автоматически, что европейские системы станут слабее, часто можно использовать синтетические данные, специализированные наборы данных или более узконаправленные модели. «

Развитие ИИ все еще является большим экспериментом, и многие из сегодняшних прогнозов могут оказаться неверными“, — отмечает Таммет. Речь идет не только о деньгах, но и о вычислительной мощности, данных и навыках. Но с кем их сравнивать?

Пентагон заключил контракты с лучшими в мире командами разработчиков искусственного интеллекта. Результат впечатляет. Внедрение ИИ в военные операции подняло возможности американской армии до уровня, который ее генералы и адмиралы называют революционным. Так считает Шон Гурли, бывший советник Пентагона и основатель компании Primer. ai, занимающейся разработкой искусственного интеллекта.

Это не просто технологическое развитие. Становится ли это всемирной революцией или же Европа останется в стороне, как это иногда бывало с предыдущими технологическими революциями? Даже Конгресс США признает, что не успевает за темпом развития искусственного интеллекта, как заявил Дарио Амодей. Европейский парламент и национальные законы более громоздки, в то время как Трамп лишил штаты права ограничивать искусственного интеллекта посредством федерального законодательства, тем самым устранив многие ограничения на пути развития ИИ.

Компания Anthropic пыталась позиционировать себя как морального лидера в области ИИ, однако недавно некоторые сотрудники покинули компанию из-за этических разногласий, подобно тому как сам Амодей когда-то ушел из OpenAI.

Тем временем Илон Маск обвиняет генерального директора OpenAI Сэма Альтмана в предательстве своих моральных принципов. Но критики спрашивают: а как же мораль, когда собственная система искусственного интеллекта Маска, Grok, недавно вызвала споры из-за приложений с сексуализированным контентом?

Вполне возможно, что критика ограничений в ЕС и Великобритании на использование медиаплатформ со стороны американских политиков, таких как вице-президент Дж. Д. Вэнс, не случайна. Что если цель состоит в том, чтобы позволить американским компаниям, занимающимся искусственным интеллектом, продолжать использовать европейские и британские данные для обучения своих моделей? В Китае они этого сделать не могут, но в Европе могут, по крайней мере, пока.

В то же время Китай способен разрабатывать собственные системы благодаря своей обширной системе наблюдения и сбора данных, а также гигантским серверным центрам. Европа же оказалась между двумя великими державами. Даже если бы какая-либо европейская страна, скажем, Франция или Швеция, разработала собственный военный ИИ, сразу же возник бы вопрос: откуда взять данные для его обучения? Европейские правила защиты данных ограничивают использование больших массивов данных гораздо строже, чем законы США. И даже если бы серверные парки были достаточно мощными, военные не доверяют „сырым“ технологиям.

Для управления смертоносными системами вооружения европейский ИИ не может провести всестороннее тестирование систем, исправить ошибки и добиться надежности. Американские компании, занимающиеся искусственным интеллектом, тоже совершают ошибки. Даже у Великобритании недостаточно вычислительных мощностей, чтобы, например, полностью перенести туда и поддерживать в работе систему искусственного интеллекта уровня Anthropic. По простой причине: не хватит возможностей подключения к электросети.