Китайский стартап DeepSeek представил две новые AI-модели, DeepSeek-V3.2 и DeepSeek-V3.2-Speciale, которые демонстрируют передовые возможности в области рассуждений, кодирования и решения математических задач. DeepSeek-V3.2-Speciale достигла выдающихся результатов в четырех международных соревнованиях, включая Международную математическую олимпиаду и Международную олимпиаду по информатике. Ключевым нововведением является архитектура DeepSeek Sparse Attention, которая снижает вычислительные затраты на обработку длинных документов и сложных задач. Это позволяет модели обрабатывать контексты длиной до 128 000 токенов с меньшими затратами по сравнению с предыдущими моделями. DeepSeek выпустила модели под открытой лицензией MIT, что делает их доступными для любого разработчика или компании без ограничений. Это может нарушить бизнес-модель компаний, которые взимают плату за доступ к своим AI-моделям. Однако, распространение моделей DeepSeek может столкнуться с регуляторными ограничениями в Европе и США из-за опасений по поводу передачи данных и национальной безопасности.