Hogyan épített a Microsoft egy AI szuperkomputert a nagy nyelvi modellekhez?

A nagy nyelvi modellek, mint például a GPT-3 vagy a GPT-4, olyan mesterséges intelligencia (AI) rendszerek, amelyek képesek természetes nyelven kommunikálni és szövegeket generálni. Ezek a modellek hatalmas mennyiségű adatból tanulnak, és milliárdok vagy akár billiók paraméterrel rendelkeznek. A nagy nyelvi modellek futtatása és tanítása azonban nem egyszerű feladat. Erőteljes hardver- és szoftverinfrastruktúrára van szükség, amely képes kezelni a nagy méretű és komplex munkafolyamatokat.

A Microsoft vezető szerepet tölt be ezen a területen. A Microsoft Azure CTO-ja, Mark Russinovich bemutatta, hogyan építették fel az AI szuperkomputer infrastruktúrát, amely a ChatGPT és más nagy nyelvi modellek futtatását teszi lehetővé. A Microsoft Mechanics YouTube csatornán néhány nappal ezelőtt megjelent videóban Russinovich elmagyarázza, hogy milyen egyedi hardvert és szoftvert fejlesztettek ki a nagy nyelvi modellek betanításához és alkalmazásához.


Hirdetés:



A Microsoft Project Turing nevű kezdeményezés keretében a vállalat célja az volt, hogy létrehozzon egy AI infrastruktúrát, amely képes modelleket tanítani, amelyek paramétereinek száma a százmilliárdokban mérhető. A Microsoft Megatron-Turing nyelvi modellje például 530 milliárd paraméterrel rendelkezik, ami több mint háromszorosa a GPT-3 legnagyobb változatának.

A Project Turing sikeréhez azonban nem elég csak nagy mennyiségű adatot és paramétert összegyűjteni. A hardver- és szoftverinfrastruktúrát is optimalizálni kell a nagy nyelvi modellek igényeihez. A Microsoft az Nvidia-val együttműködve célzott AI infrastruktúrát fejlesztett ki speciális Nvidia grafikus processzorokkal (GPU). Az új H100 VM sorozat az Nvidia H100 Tensor Core GPU-kat használja, amelyek akár 30-szor nagyobb teljesítményt és négyszer nagyobb képzési sebességet biztosítanak az Nvidia előző generációs A100 GPU-jaihoz képest.

A szoftver oldalon a Microsoft egy konténerizációs és globális ütemező szolgáltatást fejlesztett ki, amelyet Project Forge-nak neveznek. Ez a szolgáltatás segít a Microsoft globális AI munkafolyamatainak futtatásában és magas kihasználtság fenntartásában. A Project Forge lehetővé teszi a felhasználók számára, hogy könnyen létrehozzanak és kezeljenek AI konténereket, amelyek automatikusan skálázódnak és helyreállnak a hibák esetén. A Project Forge segítségével a Microsoft képes volt 10 ezer GPU-t összekötni egyetlen munkafolyamathoz.

Russnovich a Miscrosoft Build fejlesztői konferencián is tartott előadást

Az Azure AI infrastruktúrája minden méretű munkafolyamatot támogat, a legkisebbektől az OpenAI méretűekig. Az Azure Machine Learning szolgáltatásokat használva a felhasználók könnyedén finomhangolhatják a modelleket, mint például a GPT-4-et, és a finomhangolt modelleket kezelt szolgáltatásként telepíthetik saját alkalmazásaikhoz.

Ezt az infrastruktúrát számos vállalat használja saját munkaterheléseikhez. Például a Wayve nevű brit cég, amely autonóm vezetési technológiákban vezető szerepet tölt be. A Wayve olyan AI rendszert fejlesztett ki, amely képes tanulni az emberi vezetési stílusokból és alkalmazkodni különböző forgalmi helyzetekhez. A Wayve az Azure AI infrastruktúráját használja saját modelljeinek tanításához és futtatásához.

A Microsoft továbbra is fejleszti az AI infrastruktúráját és új lehetőségeket kínál a nagy nyelvi modellek használatához. A vállalat célja az, hogy demokratizálja az AI-t és elérhetővé tegye mindenki számára. Ha többet szeretne megtudni erről a témáról, nézze meg a teljes videót itt: https://www.youtube.com/watch?v=Rk3nTUfRZmo

Hozzászólás írása

Az Ön email címe nem fog megjelenni. A kötelező mezőket csillaggal (*) jelöljük.