На пути к мифической «суперинтеллектуальной» эпохе ИИ произошло нечто менее громкое, но куда более важное: инженеры сделали искусственный интеллект достаточно надёжным, чтобы он мог выполнять реальную работу.

Подсказки о том, как это удалось, появились после утечки программного кода одного из флагманских продуктов компании Anthropic — системы Claude Code. Исходники не позволяют воспроизвести модель, но дают редкое представление о том, что изменилось в индустрии после появления ChatGPT.

Сегодняшние ИИ‑системы стали заметно полезнее благодаря трём ключевым факторам.

1. ИИ знает больше — и умеет искать то, чего не знает

Ранние большие языковые модели обучались на книгах, сайтах, видео и соцсетях. Теперь же для них создаётся специальный обучающий контент: стартапы платят экспертам, чтобы те формировали знания для моделей — от медицины до финансового анализа.

По словам исследователя Химаншу Дубея, разработчики стремятся «влить» в модели как можно больше специализированных знаний. Тысячи экспертов по всему миру обучают и проверяют ответы систем вроде ChatGPT, Claude и Gemini.

Кроме того, современные ИИ научились делать то, что делают люди: искать информацию в интернете. Это породило целую индустрию сервисов, которые «доставляют» ИИ свежие результаты поиска.

OpenAI заявляет, что её новые модели допускают на 26% меньше фактических ошибок, чем GPT‑4o. Google систематически проверяет точность своих моделей, включая их способность использовать поиск.

Anthropic делает ставку на «калибровку» — способность модели признавать, когда она чего‑то не знает. «Это то, где Claude стабильно выделяется», — говорит представитель компании.

2. ИИ научился пользоваться инструментами

Главная слабость языковых моделей — они угадывают ответы, а не вычисляют их. Люди же используют символическое мышление: математику, логику, код.

Теперь ИИ делает то же самое. Он:

  • распознаёт математические задачи,
  • вызывает встроенные инструменты,
  • пишет код для решения задач,
  • использует обычные калькуляторы и библиотеки.

Критик ИИ Гэри Маркус отмечает: сами по себе LLM остаются ненадёжными, но в сочетании с традиционными инструментами становятся куда эффективнее — особенно в математике и программировании.

Анализ утечки Claude Code показывает сложную архитектуру, построенную на обычном программировании: — система памяти для удержания контекста, — механизмы предотвращения перегрузки модели, — скрипты, распознающие раздражение пользователя по ругательствам.

Это гибрид: «творческая» часть модели плюс строгие алгоритмы, как у человека — интуиция плюс калькулятор.

3. ИИ проверяет себя — и друг друга

Раньше чат‑боты выдавали поток ответов без внутреннего анализа. Теперь они используют цепочку рассуждений — внутренний диалог, который помогает прийти к более точному выводу.

Некоторые системы идут дальше: они просят другую модель проверить ответ. Например, Claude может проверять ChatGPT, и наоборот.

Павел Кириллов из компании NineTwoThree называет это «советом моделей» (council of models), и отмечает, что такой подход снижает количество ошибок.

Современные ИИ‑сервисы стали эффективнее не только потому, что модели стали умнее. Они:

  • используют свежие данные,
  • опираются на традиционные инструменты,
  • проверяют свои ответы,
  • и сверяются с другими моделями.

Это создаёт иллюзию «человеческого мышления», но на самом деле инженеры просто признали: ИИ не может всё делать сам — ему нужны знания и инструменты, созданные людьми.

Добавить комментарий

Популярные

Больше на ЯБЛОКО daily

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше