V rámci snahy zajistit, aby systémy umělé inteligence odrážely místní hodnoty a předpisy, se stále více zemí vydává cestou "suverénní AI" - tedy vývoje AI s využitím vlastní infrastruktury, dat a odborných znalostí. Společnost NVIDIA tento trend podporuje spuštěním čtyř nových NVIDIA NIM mikroslužeb.
Co jsou NVIDIA NIM a k čemu slouží?
Tyto mikroslužby jsou navrženy tak, aby zjednodušily vytváření a nasazování aplikací generativní AI a podporovaly komunitní modely přizpůsobené konkrétním regionům. Slibují hlubší zapojení uživatelů díky lepšímu porozumění místním jazykům a kulturním nuancím, což povede k přesnějším a relevantnějším odpovědím.
Proč je to důležité?
Tento krok přichází v době očekávaného boomu na trhu se softwarem pro generativní AI v asijsko-pacifickém regionu. Společnost ABI Research předpovídá nárůst tržeb z 5 miliard dolarů v letošním roce na ohromujících 48 miliard dolarů do roku 2030.
Mezi novými nabídkami jsou dva regionální jazykové modely: Llama-3-Swallow-70B, trénovaný na japonských datech, a Llama-3-Taiwan-70B, optimalizovaný pro mandarínštinu. Tyto modely jsou navrženy tak, aby měly důkladnější znalosti místních zákonů, předpisů a kulturních zvláštností.
Japonsko v čele
Další posilou nabídky japonského jazyka je rodina modelů RakutenAI 7B. Jsou postaveny na modelu Mistral-7B a trénovány na anglických i japonských datových sadách a jsou k dispozici jako dvě samostatné mikroslužby NIM pro funkce Chat a Instruct. Modely Rakuten dosáhly působivých výsledků v benchmarku LM Evaluation Harness a v období od ledna do března 2024 získaly nejvyšší průměrné skóre mezi otevřenými japonskými velkými jazykovými modely.
Trénování LLM na regionální jazyky je zásadní pro zvýšení efektivity výstupu
Díky přesnému odrážení kulturních a jazykových jemností tyto modely umožňují přesnější a nuancednější komunikaci. V porovnání se základními modely, jako je Llama 3, vykazují tyto regionální varianty lepší výkon při porozumění japonštině a mandarínštině, řešení regionálních právních úkolů, odpovídání na otázky a překladu a shrnutí textu.
Globální trend suverénní AI
Tento globální tlak na suverénní infrastrukturu AI je patrný ve významných investicích zemí, jako jsou Singapur, Spojené arabské emiráty, Jižní Korea, Švédsko, Francie, Itálie a Indie.
Výhody NVIDIA NIM
Mikroslužby NVIDIA NIM umožňují podnikům, vládním orgánům a univerzitám hostovat nativní LLM ve vlastním prostředí. Vývojáři tak mohou vytvářet sofistikované kopiloty, chatboty a AI asistenty. Tyto mikroslužby, které jsou k dispozici s NVIDIA AI Enterprise, jsou optimalizovány pro inferenci pomocí knihovny NVIDIA TensorRT-LLM s otevřeným zdrojovým kódem, což slibuje vyšší výkon a rychlost nasazení.
Zvýšení výkonu a snížení nákladů
Zvýšení výkonu je patrné u mikroslužeb Llama 3 70B (základ pro nové nabídky Llama-3-Swallow-70B a Llama-3-Taiwan-70B), které se mohou pochlubit až 5x vyšší propustností. To se promítá do snížení provozních nákladů a zlepšení uživatelské zkušenosti díky minimalizaci latence.
Závěr
NVIDIA svými novými mikroslužbami podporuje trend suverénní AI a umožňuje národním státům a organizacím vytvářet vlastní, kulturně a jazykově přizpůsobené AI modely. To může vést k větší rozmanitosti a inovacím v oblasti umělé inteligence, ale také vyvolává otázky ohledně fragmentace a možných překážek v mezinárodní spolupráci.
Související články
Šéfové technologických firem chválí Trumpův projekt umělé inteligence
Umělá inteligence změní váš trénink: Novinky ze světa fitness technologií a AI
Otázky a odpovědi: Dopad generativní AI na klima
Sdílet na sociálních sítích:
Komentáře