Apr 3, 2026 – Apr 17, 2026
AI-дайджест для CDO и Data Leaders. NERVE читает 17 Telegram-каналов про Data и AI, находит ключевые темы и — главное — исследование, до которого никто не додумался ↓
Anthropic выпустили Claude Mythos — модель с точностью SWE-bench до 93.9% Verified и 77.8% Pro, использующую compaction и prompt caching для оптимизации векторных баз. Квантование LLM позволяет уменьшить размер моделей в 4 раза и ускорить их в 2 раза без потери качества. OpenAI обновили подписку ChatGPT Pro с 5x увеличением Codex и акцией до 10x использования. Trino доказал эффективность в мультихранилищных дата пайплайнах, конкурируя со Spark и Kafka. MemPalace от Милы Йовович — новый опенсорс для управления памятью ИИ с рекордным результатом на LongMemEval.
Инсайт
Claude Mythos повышает точность SWE-bench до 93.9% Verified и 77.8% Pro, используя compaction и prompt caching для оптимизации контекста, а гибридный поиск с Haiku rerank достигает 100% точности на LongMemEval при минимальных потерях качества сжатия векторов.
В каналах обсуждают и «Anthropic Claude Mythos, Claude 4.7, Claude Mythos», и «AAAK compression, MemPalace» — но по отдельности, без связки. Мы сделали шаг вперёд: проверили, как эти направления сходятся, и оформили это в отчёт.
Anthropic выпустили Claude Mythos с улучшенной точностью на SWE-bench (93.9% Verified, 77.8% Pro) и 100% точностью на LongMemEval при использовании гибридного поиска с Haiku rerank. Модель интегрирует AAAK compression для сжатия векторов и prompt caching, что снижает нагрузку на контекст и повышает производительность.
Появилась интерактивная объяснительная визуализация процесса квантизации LLM, показывающая, как разработчики уменьшают модели в 4 раза и ускоряют их в 2 раза, сохраняя качество. Это снижает затраты на запуск RAG-систем и масштабирование AI-сервисов.
OpenAI запустили новую подписку ChatGPT Pro за $100 с доступом к GPT-5.4 Pro и увеличенным лимитом Codex — в 5 раз выше, а до 31 мая действует акция с удвоением лимитов до 10x. Это выгодно для ML-инженеров, использующих Codex для автоматизации кода и RAG.
Trino позволяет читать данные из PG, ClickHouse, GreenPlum и S3 в одном пайплайне, конкурируя с Spark и Kafka. Это упрощает архитектуру и снижает время интеграции для Data Engineers, работающих с разнородными источниками.
Опенсорс MemPalace, созданный Милой Йовович и Беном Сигманом, достигает 100% точности на LongMemEval, что ставит его на уровень SOTA в управлении памятью ИИ. Инструмент может стать ключевым для улучшения долговременной памяти LLM и повышения качества контекстных ответов.
Подробный разбор Claude Mythos с метриками SWE-bench и LongMemEval, важный для понимания новых возможностей и оптимизаций векторных баз и LLM.
Интерактивное объяснение квантизации LLM с визуалами и параметрами, которое поможет оптимизировать модели и снизить расходы на AI-инфраструктуру.
Обновление ChatGPT Pro с увеличенными лимитами Codex и акцией — критично для ML-инженеров, использующих AI для кода и RAG.
Объяснение преимуществ Trino в мультихранилищных пайплайнах, полезно для Data Engineers, работающих с разнородными источниками.
Опенсорс MemPalace — новый стандарт управления памятью ИИ с рекордными результатами, важен для улучшения долговременной памяти LLM.
Karpathy делится гистом по использованию LLM для ведения баз знаний — практическое руководство для ML-инженеров и AI-практиков.
Реальный кейс с DAG и сверкой данных — важный урок для Data Engineers по мониторингу и качеству данных в пайплайнах.