Модели Anthropic показали самые низкие показатели галлюцинаций в новом бенчмарке
Новый бенчмарк AA-Omniscience оценивает способность языковых моделей отличать факты от вымысла. Модели Anthropic показали самые низкие показатели галлюцинаций.
Claude — передовой AI-ассистент от Anthropic. Известен своей безопасностью, точностью и способностью к глубокому анализу. Конкурент ChatGPT с упором на этичность.
Новый бенчмарк AA-Omniscience оценивает способность языковых моделей отличать факты от вымысла. Модели Anthropic показали самые низкие показатели галлюцинаций.
Anthropic заявила о первой автономной кибератаке с помощью ИИ, но исследователи сомневаются в реальной эффективности и называют заявления преувеличенными.
Anthropic выпустила открытый инструмент оценки политической нейтральности ИИ-ассистентов. Claude показал 95% беспристрастности, опередив GPT-5, но уступив Grok и Gemini.
Anthropic сообщила о первой кибершпионской кампании, где ИИ использовался как автономный исполнитель. Китайская группировка превратила Claude Code в оружие для атак на 30 целей.
Мэриленд внедряет ИИ Claude для автоматизации социальных услуг: помощь в получении льгот, ускорение работы госслужащих и анализ потребностей местных сообществ.
Китайская модель Kimi K2 Thinking от Moonshot AI превзошла GPT-5 и Claude 4.5 в ключевых тестах на рассуждения и программирование при конкурентной цене.
Anthropic открывает офисы в Париже и Мюнхене, укрепляя позиции в Европе. Доход в регионе EMEA вырос в 9 раз за год, количество крупных клиентов — в 10 раз.
Cognizant развернет Claude для 350 тысяч сотрудников в крупнейшем корпоративном внедрении ИИ, ускоряя переход предприятий от экспериментов к производственным решениям.
Anthropic расширяет программу Economic Futures на Европу с фокусом на исследование влияния ИИ на экономику и рынок труда через гранты, данные и экспертные форумы.
Исследование Anthropic показывает, что языковые модели ненадежны в описании собственных мыслительных процессов, достигая успеха лишь в 20-42% случаев при интроспекции.