Akár a negyedére is csökkentheti a memóriafelhasználást egy új LLM optimalizálási technika

2024. december 23. 17:27, BitcoinBázis

A tokiói székhelyű Sakana AI startup kutatói egy olyan új technikát fejlesztettek ki, amely lehetővé teszi a nyelvi modellek hatékonyabb memóriahasználatát, így segítve a vállalkozásokat a nagy nyelvi modellek (LLM) és más Transformer-alapú modellekre épülő alkalmazások fejlesztési költségeinek csökkentésében. Az „univerzális transzformátor memória

Tovább a teljes cikkre...

Keresés