Google отказалась от обещания не использовать ИИ для создания оружия: что известно

Google, ИИ, оружие, слежка, фото
Фото: Facebook / Gemini.AI | В Google изменили свою политику касательно ИИ

Принципы Google больше не содержат пунктов, исключающих применение ИИ для создания оружия, слежки и других технологий для причинения вреда людям.

Related video

Во вторник, 4 февраля, компания Google обновила свои этические принципы в отношении искусственного интеллекта (ИИ), отказавшись от обязательства не применять данную технологию в качестве оружия или средства наблюдения. Об этом пишет The Washington Post.

Ранее принципы Google в отношении ИИ включали раздел, где перечислялись области, в которых компания не будет разрабатывать или внедрять ИИ. Согласно копии, размещенной в онлйн-архиве Wayback Machine, этот раздел состоял из четырех пунктов:

  • технологии, которые наносят или могут нанести общий вред;
  • оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие причинению вреда людям;
  • технологии, собирающие или использующие информацию для наблюдения, нарушающие общепринятые международные нормы;
  • технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
Google, ИИ, оружие, слежка, фото Fullscreen
Принципы Google касательно ИИ от 30 января 2025 года
Фото: Скриншот

По состоянию на 5 февраля на сайте отсутствует этот раздел. Представитель Google отказался отвечать на вопросы журналистов о политике компании в отношении оружия и слежки, но сослался на отчет, опубликованный во вторник главой подразделения ИИ компании Демисом Хассабисом и ее старшим вице-президентом по технологиям и обществу Джеймсом Маньикой.

В отчете говорится, что Google обновляет свои принципы касательно ИИ, поскольку в мире идет глобальная конкуренция за лидерство в области ИИ в условиях все более сложного геополитического ландшафта, породившая необходимость в компаниях, который базируются в демократических странах и обслуживают клиентов из сферы правительства и национальной безопасности.

"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность", — заявили Хассабис и Маньика.

Важно
В США ученые скопировали китайский чат-бот DeepSeek, потратив менее 30 долларов

В обновленной версии принципов Google по ИИ говорится, что компания будет использовать человеческий надзор и принимать обратную связь, чтобы гарантировать, что ее технология используется в соответствии с "общепринятыми принципами международного права и прав человека". Кроме того, компания обещает тестировать свою технологию, чтобы "смягчить непреднамеренные или вредные последствия".

Напомним, инженер, известный в сети под псевдонимом STS 3D создал роботизированную винтовку, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".

Ранее, глава Стратегического командования США генерал Энтони Коттон заявил, что система ядерного командования, управления и связи нуждается в модернизации для повышения устойчивости к новым угрозам, в частности за счет внедрения ИИ и машинного обучения.