"Удивляются и тревожатся": создатели ИИ признали, что сами не понимают, как он "думает"

Разработчики генеративного искусственного интеллекта (ИИ) до конца не знают, как именно их творения решают поставленные перед ними задачи.
Как отмечает Tech Xplore, в отличие от традиционных программ, которые следуют путями, продиктованным программистами, модели генеративного ИИ учатся находить собственный путь к успеху после получения подсказки.
"Люди, не работающие в этой области, часто удивляются и тревожатся, узнав, что мы не понимаем, как работают наши собственные творения ИИ. Такое отсутствие понимания по сути беспрецедентно в истории технологий", — говорит соучредитель ИИ-компании Anthropic Дарио Амодеи.
В свою очередь Крис Олах, который до прихода в Anthropic был частью команды разработчиков ChatGPT в OpenAI, описал ИИ как "строительные леса", на которых вырастают схемы. Олах является специалистом в области так называемой механистической интерпретируемости — метода обратного проектирования моделей ИИ для выяснения того, как они работают.
Старший научный сотрудник лаборатории искусственного интеллекта Google DeepMind Нил Нанда добавил, что изучение работы ИИ можно сравнить с исследованием человеческого мозга. По его словам, охватить всю полноту большой языковой модели — это очень амбициозная задача. Сегодня это популярная область академических исследований.
"Студентов это очень привлекает, потому что они осознают, какое влияние это может оказать", — отметил профессор компьютерных наук Бостонского университета Марк Кровелла.
ВажноОдной из попыток лучше понять ИИ являются такие стартапы, как Goodfire. Эта компания использует программное обеспечение на основе ИИ, способное представлять данные в виде шагов рассуждения. Инструмент также призван предотвратить злонамеренное использование ИИ или их самостоятельное принятие решений с целью обмана людей.
"Это похоже на гонку со временем, чтобы успеть внедрить в мир чрезвычайно интеллектуальные модели искусственного интеллекта, не имея ни малейшего представления о том, как они работают", — сказал генеральный директор исследовательской компании Goodfire Эрик Хо.
Напомним, компания OpenAI заявила, что "льстивое" обновление GPT‑4o в ChatGPT вызывало опасения по поводу безопасности, поэтому оно больше не доступно для использования.
Также сообщалось, что в Китае заявили о применении ИИ в поиске новые идей и подходов для будущих аэрокосмических исследований и разработок.