Google publikoi të martën detaje të reja në lidhje me superkompjuterët që përdor për të trajnuar modelet e tij të inteligjencës artificiale, duke thënë se sistemet janë edhe më të shpejtë dhe më efikas në energji sesa sistemet e krahasueshme nga Nvidia.
Google ka projektuar çipin e tij personal të quajtur Njësia e Përpunimit Tensor, ose TPU. Ai përdor ato çipa për më shumë se 90% të punës së kompanisë në trajnimin e inteligjencës artificiale, procesin e furnizimit të të dhënave përmes modeleve për t’i bërë ato të dobishme në detyra të tilla, si përgjigjet ndaj pyetjeve me tekst të ngjashëm me njeriun ose gjenerimi i imazheve.
Google TPU tani është në gjeneratën e tij të katërt. Google publikoi të martën një punim shkencor duke detajuar se si ka bashkuar më shumë se 4000 çipa së bashku në një superkompjuter duke përdorur çelësat e tij optikë të zhvilluar me porosi për të ndihmuar në lidhjen e makinerive individuale.
Përmirësimi i këtyre lidhjeve është bërë një pikë kyçe e konkurrencës midis kompanive që ndërtojnë superkompjuterë të AI, që fuqizojnë teknologjitë si Bard i Google ose ChatGPT i OpenAI kanë shpërthyer në madhësi, që do të thotë se ato janë shumë të mëdha për t’u ruajtur në një çip të vetëm.
Google tha se superkompjuterët e tij e bëjnë të lehtë rikonfigurimin e lidhjeve midis çipave në fluturim, duke ndihmuar në shmangien e problemeve dhe përmirësimin e performancës.
“Ndërrimi i qarkut e bën të lehtë rrugën rreth komponentëve të dështuar,” shkroi në një postim në blog rreth sistemit, partneri i Google Norm Jouppi dhe inxhinieri i shquar i Google David Patterson. “Ky fleksibilitet madje na lejon të ndryshojmë topologjinë e ndërlidhjes së superkompjuterit për të përshpejtuar performancën e një modeli ML (mësimi i makinës).
Ndërsa Google vetëm tani po publikon detaje rreth superkompjuterit të tij, ai ka qenë online brenda kompanisë që nga viti 2020 në një qendër të dhënash në Mayes County, Oklahoma. Google tha se startup Midjourney përdori sistemin për të trajnuar modelin e tij, i cili gjeneron imazhe të freskëta pasi ushqehet me disa fjalë teksti.
Në letër, Google tha se për sistemet me përmasa të krahasueshme, çipat e tij janë deri në 1.7 herë më të shpejtë dhe 1.9 herë më efikas në energji sesa një sistem i bazuar në çipin A100 të Nvidia që ishte në treg në të njëjtën kohë me TPU-në e gjeneratës së katërt.
Një zëdhënës i Nvidia nuk pranoi të komentonte.
Google tha se nuk e krahasoi gjeneratën e tij të katërt me çipin aktual H100 të Nvidia-s, sepse H100 doli në treg pas çipit të Google dhe është bërë me teknologji më të re.
Google la të kuptohet se mund të jetë duke punuar në një TPU të re që do të konkurronte me Nvidia H100, por nuk dha detaje, me Jouppi që i tha Reuters se Google ka “një tubacion të shëndetshëm të çipave të ardhshëm”.







