DeepSeek

팔로우

DeepSeek tests sparse attention to reduce AI costs

AI에 의해 보고됨

Chinese AI firm DeepSeek is experimenting with sparse attention mechanisms to significantly lower the processing costs of large language models. The approach focuses computations on key parts of input data, potentially halving resource demands. This development could make advanced AI more accessible amid rising energy concerns.

이 웹사이트는 쿠키를 사용합니다

당사는 사이트 개선을 위해 분석용 쿠키를 사용합니다. 자세한 내용은 개인정보 처리방침을 참조하세요.
거부