Chinese AI firm DeepSeek is experimenting with sparse attention mechanisms to significantly lower the processing costs of large language models. The approach focuses computations on key parts of input data, potentially halving resource demands. This development could make advanced AI more accessible amid rising energy concerns.

Этот сайт использует куки

Мы используем куки для анализа, чтобы улучшить наш сайт. Прочитайте нашу политику конфиденциальности для дополнительной информации.
Отклонить