DeepSeek kockázatairól mond véleményt a szakértő
a. Az alkalmazásokat a készülékeikről használó fogyasztóknak tisztában kell lenniük azzal, hogy a DeepSeek alkalmazás gyűjti a személyes adataikat (név, születési dátum stb.), a készülékükről származó információkat (típus, internetcím, hely, akkumulátor töltöttségi szintje és egyéb műszaki adatok), és természetesen az általuk begépelt minden felszólítást naplóznak és képzési célokra felhasználnak.
Mivel az összes ilyen adatot a kínai mesterséges intelligencia szerverekre küldik, ezeket az információkat kérésre a kínai kormány számára is hozzáférhetővé kell tenni a törvény értelmében.
Mindezek miatt érdemes lehet teljesen elkerülni ezt a szolgáltatást, vagy legalábbis nem túl sok személyes adatot megadni a szolgáltatásnak.
b. Azoknak a vállalatoknak, amelyek az üzleti folyamatok és az automatizálás érdekében szeretnék felfedezni a technológiát, több lehetőségük van. Hasonló kockázatokkal jár, ha a DeepSeek kínai székhelyű felhőszervereit használják, de mivel az AI-modell szabadon elérhető, lehetőség van házon belüli hosztolásra, vagy az EU-ban, az USA-ban vagy más joghatóság alatt hosztoló szolgáltatótól való használatra. Ez korlátozza az adatvédelmi kockázatokat, de nem küszöböli ki a mesterséges intelligenciamodellbe programozott, eredendő elfogultságot.
2. Ahogy az 1b pontban említettük, ebben a modellben valószínűleg van torzítás, ami nem különbözik az OpenAI, Claude vagy Gemini modelljeitől. A torzítások azonban potenciálisan eltérőek lesznek, és még csak most kezdik feltárni őket. Annak megértése, hogy egy modell mit csinál és miért csinálja, nehéz és kockázatot jelent.
A TikTok betiltásáról szóló amerikai döntés csak részben az anyavállalatnak küldött adatok miatt született, hanem azért is, mert aggályok merültek fel, hogy az ajánló algoritmus a felhasználókat az egyik típusú tartalom felé tereli egy másik típusú tartalom felé. Ugyanez igaz lehet egy mesterséges intelligenciamodellre is.
Ezek a modellek egy kicsit „fekete dobozok”, és kihívást jelenthet visszafejteni, hogyan kapják meg a válaszaikat. Előfordulhat, hogy egy vállalat számítógépes programozási asszisztensként használ egy mesterséges intelligenciát, és később derül ki, hogy az előszeretettel hoz létre támadható kódot.
3. Mindig fennáll annak a veszélye, hogy a technológiát a kiberbűnözők átveszik, hogy segítsenek kifinomultabb támadások létrehozásában. Eddig csak alapvető visszaéléseket láttunk a legnépszerűbb AI-modellekkel, de mivel ez a modell, akárcsak a lláma, szabadon hozzáférhető, a rossz szándékúak még inkább előnyben részesíthetik. Ha a modellt a saját számítógépeiken is használhatják, könnyebben kiiktathatják/kikerülhetik a rosszindulatú felhasználás elleni védelmeket.
4. Egy ilyen kifinomult és nagy teljesítményű modell, amely mindenki számára elérhető, véget vet annak az elképzelésnek, hogy ezt a technológiát ellenőrizni vagy korlátozni lehet. Amikor csak néhány nagy technológiai vállalat volt a tárhelye, akkor viszonylag nagy esély volt arra, hogy szabályozni lehet. Ha bárki futtathatja az AI-modelleket a saját számítógépén, a szabályozás hatékonysága erősen korlátozott lesz.
Az összes nagy szolgáltató valószínűleg továbbra is megfelelne a követelményeknek, de ha valami illegálisat akarsz csinálni, akkor azt magad is megteheted anélkül, hogy több millió dollár értékű adattudósokat és számítóchipeket kellene felvenned, hogy létrehozd a sajátodat.
A legtöbb felhasználó számára az adatvédelem az első és legfontosabb kérdés. A kockázatok némileg eltérnek a fogyasztók esetében, akik valószínűleg az okostelefonjaikon használják a DeepSeek-et, szemben a vállalatokkal, amelyek a modelleket programozási interfészeken keresztül használhatják az üzleti intelligencia és egyéb funkciók lehetővé tételére
Az elemzői anyagot a Sophos készítette.
.