Gjigandi i teknologjisë, Google ka publikuar detaje të reja në lidhje me superkompjuterët që përdor për të trajnuar modelet e tij të inteligjencës artificiale, duke thënë se sistemet janë edhe më të shpejtë se më parë.
Google ka projektuar çipin e tij personal të quajtur Njësia e Përpunimit Tensor ose TPU, që tashmë është në gjeneratën e tij të katërt.
Kompania publikoi së fundmi një punim shkencor duke detajuar se si ka bashkuar më shumë se 4000 çipa së bashku në një superkompjuter duke përdorur çelësat e tij optikë të zhvilluar me porosi për të ndihmuar në lidhjen e makinave individuale.
Përmirësimi i këtyre lidhjeve është bërë një pikë kyçe e konkurrencës midis kompanive që ndërtojnë superkompjuterë të AI, sepse të ashtuquajturat modele të mëdha gjuhësore që fuqizojnë teknologjitë si Bard i Google ose ChatGPT i OpenAI kanë shpërthyer në madhësi, që do të thotë se ato janë shumë të mëdha për t’u ruajtur në një çip të vetëm./btvnews.al