MIT с IBM представили новую технику PaTH Attention для улучшения понимания контекста в LLM
Исследователи MIT-IBM представили PaTH Attention — новую технику позиционного кодирования для трансформеров, которая делает понимание контекста адаптивным и улучшает способность моделей к последовательному рассуждению в длинных текстах.
