STORE.TELSAT.AZ - Разместить объявление
  • 195

Чем умнее ИИ, тем больше он лжёт

Галлюцинации остаются главной проблемой ИИ

Галлюцинации в искусственном интеллекте остаются его "ахиллесовой пятой". Чем умнее становятся модели, тем чаще они придумывают ложную информацию.

Проблема существует с первых дней генеративных ИИ. Модели уверенно выдают данные, не имеющие ничего общего с реальностью. И, к сожалению, эта ошибка не уменьшается — а растёт.

Количество ложной информации растёт

Год назад ИИ сравнили с "ахиллесовой пятой". Компании OpenAI, Anthropic, Google и DeepSeek разработали новые модели, заявляя, что они точнее и логичнее предыдущих. Однако практика показывает обратное — модели ошибаются и выдумывают больше, чем раньше.

Согласно отчёту New York Times, модели "o3" и "o4-mini" от OpenAI в 33% и 48% случаев генерировали галлюцинации. Это почти в два раза больше, чем в предыдущих версиях.

Проблема охватывает всю индустрию

Это касается не только OpenAI. Модели от Google и DeepSeek также страдают от этого. Дело не в самих моделях, а в их принципах работы. Как говорит CEO Vectara Амр Авадалла: "Что бы мы ни делали — галлюцинации будут всегда."

Это несёт риск не только пользователям, но и бизнесу. ИИ, выдающий ошибки, подрывает доверие и может повлиять на бизнес-решения.

Синтетические данные — тупик?

Как упоминалось ранее, реальные данные для обучения моделей закончились. Сейчас компании используют синтетические данные — то есть созданные другими ИИ. Но это может умножить ошибки и ухудшить ситуацию.

Есть ли решение?

Несмотря на наличие компаний, занимающихся решением проблемы галлюцинаций, универсального подхода нет. Главная причина — мы до конца не понимаем, как работает ИИ.

Решение может быть рядом, а может потребовать радикального переосмысления всего подхода.

Не забудьте подписаться на новости Telsat, чтобы быть в курсе технологий.