Hirdetés

Léphetett a Meta az új kihívója, a DeepSeek megjelenésére?

A Mark Zuckerberg nevével fémjelzett Meta olyan dokumentumot adott ki, ami ki nem mondva is demonstrálja: az általuk fejlesztett mesterséges intelligencia biztonságosabb, mint a kínai DeepSeek megoldásai.

Eléggé felforgatta a startupvilágot a kínai DeepSeek R1 nevű, nyílt forráskódú, nagy nyelvi modelljének januári megjelenése a piacon, ami az OpenAI o1 modelljéhez hasonló teljesítményt ér el a matematikai, kódolási és következtetési feladatokban. Mindezt úgy, hogy a megszokott dollárszázmilliók helyett mindössze 6 millió dollárt kellett költeni az R1 betanítására – az alacsony összeg oka pedig a modellhez használt chipek alacsony számában keresendő.

A DeepSeek debütálása ezért alapjaiban kérdőjelezte meg az olyan szereplők, mint az OpenAI, az Antrophic, a Meta vagy a Mistral AI magas befektetéseit és cégértékeléseit. Erről bővebben ebben a cikkünkben írtunk.

A kínai vetélytárs felfutása után alig egy héttel a Mark Zuckerberg nevével fémjelzett és a Llama nevű alapmodelljével az AI-versenybe benevezett Meta kiadott egy dokumentumot Frontier AI Framework (Élvonalbeli AI keretrendszer) néven,

amellyel a cég azt üzenhette a felhasználóknak: bennünk bízhattok, ellentétben a DeepSeekkel.

Igaz, Zuckerberég már tavaly megígérték, hogy ezzel a dokumentummal előrukkolnak a 2025. február 10-11-i, franciaországi AI Action Summitra, szóval kijelenteni nem lehet, hogy a keretrendszer publikálásával a Meta a DeepSeek felemelkedésére reagált.

Hogyan szabályozza a Meta a saját AI-fejlesztéseit?

A keretrendszerrel az amerikai cég tulajdonképpen arra a félelemre ad választ, amire az európai uniós döntéshozók is igyekeztek a tavaly elfogadott AI Act-tel:

hogyan akadályozzuk meg a mesterséges intelligencia rossz célokra, például kiber-, vegyi vagy biológiai támadásokra való felhasználását?

A Frontier AI Framework ennek mentén három csoportba sorolja a saját AI-fejlesztéseit:

  • A mérsékelt kockázatú modellekkel nem lehet jelentős előrelépést tenni az AI rossz célú felhasználása felé, így azokat – a modell kiadásakor meghatározott biztonsági intézkedésekkel – piacra lehet dobni.
  • A magas kockázatú modellekkel jelentős előrelépést lehet tenni egy fenyegető esemény felé, azaz: potenciálisan nagy segítség lehet egy kiber-, vegyi vagy biológiai támadás végrehajtására, de önmagában a modell felhasználása kevés ennek bekövetkeztéhez. Ezeket a modelleket a Meta nem fogja kiadni, helyette a hozzáférést – a hackertámadások és a modell kiszivárgását megakadályozó intézkedések mellett – egy kutatócsoportra korlátozza, akiknek a feladata a modell mérsékelt kockázatúvá fejlesztése lesz.
  • A kritikus kockázatú rendszerek pedig már önmagukban képesek lehetnek – rossz kezekbe kerülve – egy katasztrofális kimenetelű támadást előidézni, és ennek a kockázatát az adott pillanatban nem lehet mérsékelni. Ekkor a Meta teljesen leállítja a modell fejlesztését, és a hozzáférést egy szigorúan szűk szakértői körre korlátozza a megfelelő biztonsági intézkedések mellett. Ezenfelül a modell további lehetséges felhasználási veszélyeit részletesen körüljárja, és megvizsgálja, hogy hogyan lehet a modellt mérsékelt kockázatúvá tenni.
Forrás: Trusted Reviews

Érdekesség, hogy az egyes modellek veszélyszintjét a Meta nem egy kvantitatív mérőszámmal határozza meg, mert szerinte jelenleg a tudomány nem tud adni egy olyan egzakt mérőszámot, amivel tényleg jól meghatározható egy AI-modell veszélyessége. Ehelyett a cég a saját és esetenként külső szakértők segítségével vizsgálja meg, hogy az adott modellt a különböző szereplők mire és hogyan használhatják fel, a megállapított veszélyszintre pedig a felsővezetők mondanak áment.

Hogy jön ide a DeepSeek?

Minderre már csak azért is szükség van a Metánál, mert Zuckerberég a saját AI-megoldásaikat nyíltan elérhetővé teszik, azaz a rendszereik működése átláthatóvá és más célokra történő felhasználásra is alkalmassá válik a felhasználók számára. Ezzel szemben például az OpenAI egy alkalmazásprogramozási interfésszel (API) eltakarja a rendszer működésének belső részleteit, így kontrollálva AI-modelljeik felhasználhatóságát.

Van azonban egy szereplő, aki a Metához hasonlóan nyíltan elérhető modelleket fejleszt, viszont érdemi garanciát nem adott még arról, hogy a megoldásai nem fognak hozzájárulni a felhasználók átveréséhez vagy lebombázásához egy új biológiai fegyverrel: ez a kínai DeepSeek.

A most publikált Frontier AI Framework tehát egyúttal a Meta és a DeepSeek közötti kockázati különbségek hangsúlyozására is alkalmas – mégha az nem is jelenthető ki, hogy ez biztosan szándéka volt a Metának.

NYITÓKÉP: Mark Zuckerberg, a Meta CEO-ja. Forrás: Anthony Quintano / Flickr

Magához térni látszik az európai VC-piac: egy évtizede nem volt olyan alacsony a startupok értékcsökkenése, mint most

A PitchBook adatai szerint a lefelé irányuló cégértékelések aránya 2025 első negyedévében csupán 12,39 százalék volt – míg két évvel ezelőtt ugyanezen adat az összes befektetési kör értékelésének majdnem 18,5 százalékát tette ki.

Bővebben

Miért éri meg magyar startupperként részt venni egy nagy nemzetközi technológiai expón?

Szinte közhelyszámba megy, hogy egy nagy technológiai rendezvényen mennyi kapcsolatra lehet szert tenni – de pontosan milyenekre? Miről beszélgetnek ilyenkor a startupok képviselői, milyen konkrét lehetőségeket vázolnak fel nekik, és mennyi időbe telik, mire a cég ebből tényleges hasznot láthat. Az első GITEX EUROPE kiállítás magyar résztvevőit kérdeztük.

Bővebben