Friss Hirek

Felejteni tanítják a mesterséges intelligenciát

A mesterséges intelligencia fejlesztések kapcsán az egyik legfontosabb kérdés az adatok minősége, ugyanis ha az MI rossz adatokat tanul meg, félrevezetheti a döntéshozókat. Éppen ezért fontos a toxikus adatok eltávolításának lehetősége, ahogy az érzékeny adatok kezelésével kapcsolatos jogszabályok betartása is.

Ezt a célt szolgálják az IBM új megoldásai, amelyek lehetővé teszik, hogy a modellek képesek legyenek a megbízhatóságot és a jogi megfelelést egyaránt támogatva szelektíven „elfelejteni” bizonyos információkat.

Az úgynevezett unlearning technológia mérföldkő lehet az MI hatékonyságának növelésében, valamint az adatbiztonság és az adatvédelem terén egyaránt: különösen igaz ez a generatív nagy nyelvi modellek (LLM) esetében, amelyek gyakran óriási mennyiségű internetes adatot használnak fel a tanulási folyamataikhoz. Az unlearning lényegében fordított tanulást jelent: a modellekből úgy távolítják el a nemkívánatos adatokat, hogy nem kell újrakezdeni a teljes tanítási folyamatot.

Az IBM kutatói szerint az unlearning jelentős előrelépés lehet az MI-modellek tökéletesítésében és biztonságosabbá tételében, ami nélkülözhetetlen annak érdekében, hogy a vállalati és intézményi döntéshozók mesterséges intelligenciába vetett bizalma erősödjön.

Az unlearning azért hasznos, mert a segítségével ki lehet szűrni a nagy nyelvi modellek válaszaiban megjelenő toxikus, vagy etikai aggályokat felvető információkat, torzításokat. Emellett az MI birtokába kerülő érzékeny, vagy személyes adatokat is megbízhatóbban kezelheti, lévén megoldhatóvá válik az eddig igencsak nehézkes adattörlés, ha valaki bejelentést tesz az EU-s GDPR rendelkezések alapján.

The post Felejteni tanítják a mesterséges intelligenciát first appeared on 24.hu.


Exit mobile version