На пути к мифической «суперинтеллектуальной» эпохе ИИ произошло нечто менее громкое, но куда более важное: инженеры сделали искусственный интеллект достаточно надёжным, чтобы он мог выполнять реальную работу.
Подсказки о том, как это удалось, появились после утечки программного кода одного из флагманских продуктов компании Anthropic — системы Claude Code. Исходники не позволяют воспроизвести модель, но дают редкое представление о том, что изменилось в индустрии после появления ChatGPT.
Сегодняшние ИИ‑системы стали заметно полезнее благодаря трём ключевым факторам.
1. ИИ знает больше — и умеет искать то, чего не знает
Ранние большие языковые модели обучались на книгах, сайтах, видео и соцсетях. Теперь же для них создаётся специальный обучающий контент: стартапы платят экспертам, чтобы те формировали знания для моделей — от медицины до финансового анализа.
По словам исследователя Химаншу Дубея, разработчики стремятся «влить» в модели как можно больше специализированных знаний. Тысячи экспертов по всему миру обучают и проверяют ответы систем вроде ChatGPT, Claude и Gemini.
Кроме того, современные ИИ научились делать то, что делают люди: искать информацию в интернете. Это породило целую индустрию сервисов, которые «доставляют» ИИ свежие результаты поиска.
OpenAI заявляет, что её новые модели допускают на 26% меньше фактических ошибок, чем GPT‑4o. Google систематически проверяет точность своих моделей, включая их способность использовать поиск.
Anthropic делает ставку на «калибровку» — способность модели признавать, когда она чего‑то не знает. «Это то, где Claude стабильно выделяется», — говорит представитель компании.
2. ИИ научился пользоваться инструментами
Главная слабость языковых моделей — они угадывают ответы, а не вычисляют их. Люди же используют символическое мышление: математику, логику, код.
Теперь ИИ делает то же самое. Он:
- распознаёт математические задачи,
- вызывает встроенные инструменты,
- пишет код для решения задач,
- использует обычные калькуляторы и библиотеки.
Критик ИИ Гэри Маркус отмечает: сами по себе LLM остаются ненадёжными, но в сочетании с традиционными инструментами становятся куда эффективнее — особенно в математике и программировании.
Анализ утечки Claude Code показывает сложную архитектуру, построенную на обычном программировании: — система памяти для удержания контекста, — механизмы предотвращения перегрузки модели, — скрипты, распознающие раздражение пользователя по ругательствам.
Это гибрид: «творческая» часть модели плюс строгие алгоритмы, как у человека — интуиция плюс калькулятор.
3. ИИ проверяет себя — и друг друга
Раньше чат‑боты выдавали поток ответов без внутреннего анализа. Теперь они используют цепочку рассуждений — внутренний диалог, который помогает прийти к более точному выводу.
Некоторые системы идут дальше: они просят другую модель проверить ответ. Например, Claude может проверять ChatGPT, и наоборот.
Павел Кириллов из компании NineTwoThree называет это «советом моделей» (council of models), и отмечает, что такой подход снижает количество ошибок.
Современные ИИ‑сервисы стали эффективнее не только потому, что модели стали умнее. Они:
- используют свежие данные,
- опираются на традиционные инструменты,
- проверяют свои ответы,
- и сверяются с другими моделями.
Это создаёт иллюзию «человеческого мышления», но на самом деле инженеры просто признали: ИИ не может всё делать сам — ему нужны знания и инструменты, созданные людьми.






Добавить комментарий