Исследование показало, что ИИ-поисковики используют непопулярные источники
Немецкие исследователи обнаружили, что ИИ-поисковики чаще ссылаются на менее популярные сайты, создавая альтернативную информационную экосистему.
Немецкие исследователи обнаружили, что ИИ-поисковики чаще ссылаются на менее популярные сайты, создавая альтернативную информационную экосистему.
Исследование показало, что GPT-5 генерирует больше опасных ответов на темы суицида и самоповреждения по сравнению с GPT-4o, несмотря на декларируемый переход к «безопасным» ответам.
KT выпустила корейскую языковую модель SOTAK на базе GPT-4o с улучшенной обработкой местного языка и культурного контекста, превосходящую оригинал в специализированных тестах.
Университет Мэриленда расширяет образовательную платформу TerpAI с доступом к 11 000 ИИ-моделей включая GPT-5, стремясь увеличить распространение среди студентов и преподавателей.
DuckDuckGo обновил подписку Privacy Pro, добавив доступ к GPT-5, Claude Sonnet 4 и другим продвинутым AI-моделям, а также расширив инструменты защиты данных.
Исследователи доказали, что чат-боты OpenAI уязвимы к психологическому манипулированию — лесть и давление окружения заставляют ИИ нарушать собственные правила безопасности.
Исследование показало, что языковые модели не способны к клиническим рассуждениям и работают по шаблонам, что делает их ненадежными для медицинской практики.
Nous Research представила Hermes 4 — семейство языковых моделей с прозрачным рассуждением и минимальными ограничениями контента, превосходящее GPT-4o в математике и отказе от цензуры.
OpenAI и Anthropic провели первое в истории совместное тестирование безопасности своих ИИ-моделей, выявив сильные и слабые стороны систем защиты.
Исследование показало, что имитирующие опросы ИИ ошибаются на 23%. Модели систематически искажают мнения меньшинств, но стартапы продолжают их использовать.