Press "Enter" to skip to content

Hogyan készítsünk Deepfake videót

Deepfake

A csalók 35 millió dollárt elloptak az Egyesült Arab Emírségek Bankjától a DipFEAB fejezetének hangjával

Október közepén ismertté vált, hogy a bűnözők hatalmas mennyiségű 35 millió dollárt kaptak a banktól az Egyesült Arab Emírségekben, utánozva a bank fejének hangját egy fejlett mesterséges intelligenciával. Úgy tűnik, hogy egy dipfeabot használtak a bankhoz tartozó törvényes kereskedelmi művelet szimulálására.

A Forbes arról számolt be, hogy a Deepfake szavazatokat arra használták, hogy megtévessze a bank munkavállalóját, és úgy gondolja, hogy a jogi műveleten belül pénzt fordít. A történetet a januárban tartott igazságügyi anyagok közzétételének közzététele után kezdte meg, amikor egy névtelen bank vezetője megkapta, úgy tűnik, a szokásos telefonhívás.

Az Egyesült Arab Emírségekben a DipFeAB hang segítségével csalók megtévesztették a bank alkalmazottját, és 35 millió dollárt tettek

A telefon másik oldalán lévő férfi azt állította, hogy egy nagyvállalat igazgatója volt, akivel a menedzser már korábban már beszélt, ugyanakkor az igazságügyi anyagok szerint azonos volt, szavazataik azonos voltak. Mindezt a Bank és az ügyvéde e-mailjei támogatják, akik valóságosnak tűnnek, akik képesek voltak meggyőzni a fióktelep menedzserét arról, hogy mit beszél az igazgatóval, és a vállalat valóban egy nagy kereskedelmi tranzakció folyamatában van a $ összegben 35 millió.

Ezt követően követte a hívó utasításait, és számos nagy pénzátutalást tett a vállalatról egy új fiókra. Sajnos mindez kifinomult átverés volt.

Dubai kutatók rájöttek, hogy a csalók “mély hang” technológiát használtak, ami lehetővé tette számukra, hogy utánozzák a nagyvállalat vezetőjének hangját. A rendőrség arra a következtetésre jutott, hogy legfeljebb 17 ember vett részt a rendszerben, és ellopott pénzt fordítottak több különböző bankszámlára szétszórva a világon.

Tehát két pontszámot regisztráltak az Egyesült Államokban, a Centennial Bankban. Megkapták az összeget ezer. Az Egyesült Arab Emírségek nyomozói már fellebbeztek az amerikai tisztviselőknek a nyomozás érdekében.

Ez nem az első eset, amikor a csalók jelentős átveréseket tudtak vezetni. Egy év egy bizonyos energia társaság az Egyesült Királyság elveszett $ ezer. Miután a vállalat munkavállalója kapcsolatba lépett egy olyan személygel, aki a Társaság általános igazgatójához adta magát.

Szerint Jake Mura, a kiberbiztonság szakértő ESET, a támadók egyre gyakrabban használják a legújabb technológiák manipulálni az embereket, akik nem is sejti létüket.

A szakértők szerint, akik megfigyelik a mesterséges intelligencia piacát, ez messze lesz az utolsó.[1]

DIRTRIBAK VOGE CAN FOOD IOT-eszközök és az emberek öt másodperc elteltével a tanulás

DIRTRIBAK VOGE CAN FOOD IOT-eszközök és az emberek öt másodperc elteltével a tanulás. Ez október 14-én ismertté vált.

A dipfeab a Microsoft Azure mintegy 30% -át az esetek mintegy 30% -át, és az esetek 63% -át sikeresen megtévesztette Wechat és Amazon Alexa.

A Chicago Egyetem laboratóriumi biztonságának, algoritmusainak, hálózati és adatainak (homok) kutatói tesztelték a nyílt forráskódú közösségi weboldalon elérhető ferde-szavazatok szintézisét, hogy megtudják, hogy megkerülhessék az Amazon Alexa hangfelismerési rendszereit , Wechat és Microsoft Azure.

Az SV2TTS fejlesztők szerint a program csak öt másodpercet vesz igénybe, hogy elfogadható utánzást hozzon létre.

A program megtévesztheti az emberi füleket – az önkéntesektől, akiket felkérték, hogy meghatározzák az igazi hangokat a dipfeák között, az esetek körülbelül fele helytelen volt.

A Dipfab-Audio sikeresen alkalmazható a női szavazatok szimulálására és azoknak az embereknek szavazására, akiknek az angol nem őshonos.

Azt találtuk, hogy mind az emberek és a számítógépek könnyen lehet könnyen becsapni szintetikus beszéd, és a meglévő eszközök elleni védelem szintetizált beszéd nem működik, – a kutatói NewsCientist jelentett.

A szakértők egy másik hangszintézist teszteltek, az Autovc néven, amely öt percet vesz igénybe a személy hangjának újjáépítéséhez. Az Autovc csak az esetek 15% -ában sikerült megtévesztenie a Microsoft Azure-t, így a kutatók megtagadták a WeChat és Alexa tesztelését [2].

Az Ernst Young elkezdte használni az alkalmazottak videó videóját, hogy kommunikáljon az ügyfelekkel a személyes találkozók helyett

Augusztus közepén ismertté vált, hogy Ernst Young (EY) kezdte használni a munkavállalók videofelületeit, hogy kommunikáljon az ügyfelekkel a személyes találkozók helyett. Ehhez a vállalat a brit startupsynthesia által nyújtott technológiát használja. További információ itt.

A Belügyminisztérium felvette a Fancy videofelismerési rendszert

Május elején tudatában volt annak a szerződésnek, hogy a Belügyminisztérium (Belügyminisztérium) Oroszország a Moszkvai JSC “tudományos és ipari vállalat” magas technológiák és stratégiai rendszerek “. A “tükör” szektorban (“teve”) szektorban a tudományos fejlődésről beszélünk, amelyet a gyártott videók észlelésére terveztek (DIPIPIS). A tanulmány szükséges a szakértői és igazságügyi megosztásokhoz és video-vizsgálatokhoz. További információ itt.

A DiPfize-k segítségével Kínában a csalók megtévesztették a 76,2 millió dolláros személyek elismerésének állami rendszerét

A DiPfize-k segítségével Kínában a csalók megtévesztették a 76,2 millió dolláros személyek elismerésének állami rendszerét. A csalás érdekében a csalók nagy minőségű és hamis személyes adatokat vásároltak a fekete piacon. 5 dollárból származik. A Wu és Zhou által kapott képeket a DIPFEG-alkalmazásokban kezelték – “újjáéledhetik” a letöltött képet, és készítsenek egy videót, ami azt a benyomást kelti, hogy az arcok bólinták, villognak, mozognak és kinyitják a száját. Az ilyen alkalmazások ingyenesen letölthetők.

A következő szakaszban a csalók különleges reflektoros okostelefonok vásároltak: Az arcfelismerés során az ilyen eszköz elülső kamerája nem kapcsol be, hanem a rendszer előre meghatározott videót kap, érzékeli, hogy képként képezi a fényképezőgépet. Az ilyen telefonok körülbelül $

Egy ilyen rendszer segítségével a csalók regisztráltak egy nyers tulajdonú társaságot, amely hamis adóbevallást eredményezhet ügyfeleinek. Két évig a csalók 76,2 millió dollárt szereztek.

A biometrium elterjedt Kínában – segítségével megerősíti a kifizetéseket és a vásárlást, ellenőrizze a személyiséget a közszolgálat kialakításában és így tovább. De a technológia fejlődésével együtt az egyik fő probléma vált adatvédelem.

A Facebook kutatók nevezték az algoritmus NTechlab a Deepfake felismerés a legmegfelelőbb támadásoknak

NTechLab, a cég területén videoelemzést alapján neurális hálózatok és a technológiai partnere az állam Corporation of Rostech, december 11-én bejelentette, hogy a vállalat elismerését cég algoritmus nevezték a legellenállóbb a megtévesztés alkalmazásával T.N. Összekötő szerek. További információ itt.

A megjelenése távirat robotok által létrehozott hamis „fronton” alapuló Deepnude zsarolásra

Október végén a távirat dipfeab üveg rendszert észlelt, amely kérésre hamis “Porncnok”. A felhasználók az ismerős nők ilyen képeit helyettesítik, a közösségi hálózatokból származó képekből, majd nyilvános csatornákon és csevegőszobákban kiválasztva, vagy a zsaroláshoz használják. További információ itt.

A Samsung bemutatta a digitális embereket, akik nem különböznek meg a valódi

Az év január elején a Samsung bemutatta a “mesterséges emberek” projektet, NEON nevű. A Samsung Technology and Advanced Research Labs Division (Star Labs) tervezte. További információ itt.

A ZAO alkalmazás kiadása

Szeptember elején ismertté vált a ZAO alkalmazás kiadásáról, amely mesterséges intelligenciával, lehetővé teszi, hogy a felhasználó arcát illessze be a filmben. További információ itt.

Az Energy Társaság ezer dollárt égett., AI használata a hamisításhoz

Szeptember elején a bűnözők a brit energiatársaságból ezerre csökkentek., Miután megadta magát az ügyvezető igazgatónak mesterséges intelligenciával a szavazás hamisításáért.

A Unnamed Energy Company vezérigazgatója úgy gondolta, hogy a telefonnal beszél a telefonján, a német anyai társaság vezetőjével. “Boss” arra kérte, hogy pénzt küldjön a magyar szállítónak. Szerint a biztosító társaság Euler Hermes Group SA, a büntető megállapította, hogy a kérelem nagyon sürgős, és arra kérte a menedzser, hogy át pénzt egy órán belül. Euler Hermes megtagadta az áldozatot.

A bűnözők a brit energiavállalatból ezerre csökkentek.

Szakértő a biztosítási társaságnak az EULER HERMES RÜDIGER KIRSCH (Rüdiger Kirsch), azt jelentette, hogy az érintett menedzser megtanulta a főnöke leeresztett német nyelvét és egy közös hang hangját telefonon. Közvetlenül azután, hogy a hívást, a menedzser át pénzt a magyar beszállító és a kapcsolatot a főnök ismét jelentést konfigurációt. Hamarosan a vállalat vezetője és alárendeltje rájött, hogy csalás áldozata és a rendőrséghez vonzottak.

Szakember a Cybersecopinessset Jake Moore végén augusztus végén kijelentette, hogy a közeljövőben szembesülünk a számítógépes bűnözés szörnyű növekedésében. Deepfake képes helyettesíteni az arcokat hírességek és közéleti személyek bármilyen videót, de legalább 17 órányi felvételt ezzel a személlyel van szükség, hogy egy meggyőző képet. Hangfajta, sokkal kevesebb anyagot igényel. Ahogy a számítógépek számítástechnikai ereje nő, az ilyen hamisság könnyebbé válik.

A kockázatok csökkentése érdekében emlékezteti a moore-t, nemcsak az emberek tájékoztatására van szükség, hogy az ilyen utánzás lehetséges, hanem a speciális vizsgálati módszereket is tartalmazza, mielőtt a pénz átadása, például kétfaktoros azonosítás.[3]

Az USA-ban a pornó almenüjével kezdődik a pornó elosztására

Július elején törvényt fogadtak el Virginiaban, amely megtiltotta a pornográfia terjedését a személyek helyettesítésével. Ez az első állam az USA-ban, ahol hasonló kezdeményezés volt.

Az Egyesült Államokban és más országokban az úgynevezett pornó gyakori – az anyagok internetes elhelyezése nyíltan szexuális jellegű, anélkül, hogy beleegyezne az általuk ábrázolt személy hozzájárulása nélkül. Általános szabály, hogy az ilyen anyagok kerülnek a korábbi partnerek a valóságban érdekében vagy a hackerek, akik megkapták a jogosulatlan hozzáférést az ilyen anyagokat. A fejlesztés a mesterséges intelligencia technológiák és egyszerű eszközökkel, a kiváló minőségű szerkesztése fotó és videó tartalmak a részét egyre inkább kezdett kivetése egy személy egy pornó színész.

Július elején törvényt fogadtak el Virginiaban, amely megtiltotta a pornográfia terjedését a személyek helyettesítésével

Július 1-jétől kezdődően bárki, aki hamis fotókat és szexuális videókat terjeszt, hogy “zsarolás, zaklatás vagy megfélemlítés” Virginia-ban, 12 hónapig $ börtönbe bírságot szabhat ki.

Virginia lett az első amerikai személyzet, aki az úgynevezett Deepfake tiltott. Az ilyen kezdeményezéseket júliusban más államokban készítik el. Például a New York-i tekinthető számlát tiltó létrehozása „digitális másolat” az emberek a beleegyezésük nélkül, és a texasi szeptember 1-jén, az év lépnek hatályba a törvény az eloszlás a szexuális tartalom helyettesítés személyek.

Újra kell állnunk az elavult és eltérő törvényeket, beleértve a bűnözőt is, a fenyegetések bénulásának és életveszélyes következményeinek, és elismeri a hamis pornó számára jelentős kárt – mondta Clare McGlinn professzor (Clare McGlynn) a Durham Egyetemen.

A szakértők szerint azonosítják a támogatást még a videókban is.[4]

30 másodpercen belül elindították a képeket a képeken

Június végén ismertté vált a Deepnude szolgáltatás elindításáról, amely lehetővé teszi, hogy megosztja a lányt a képen. Az alkalmazásfejlesztő neve ismeretlen, de a Twitter blogja azt állítja, hogy a termék egy “kis csapatot” fejleszti Észtországból. További információ itt.

Moszkva II Center Samsung létrehozott egy neurális hálózat, újjáéledt portré Dosztojevszkij

Az év májusában a Samsung mesterséges intelligencia központjának kutatói Moszkvában bemutatták a Neuralletbe, képesek “újraéleszteni” a személyek statikus képeit. A rendszer működését a Hab portálon közzétett anyagok tartalmazzák

Mesterséges intelligencia újjáélesztette a Dostoevsky – animációt a Samsung sajtószolgálatában

A neurosetin rögzíti az emberi arc mozgásait és mimikumát a videóban, és az átutalások után a statikus portréban érkezett adatok. A tudósok “megmutatták” mesterséges intelligenciával nagyszámú személyzet az emberekkel.

Mindegyik arcon egy ilyen kereten egy speciális maszkot helyeznek el, amely határokat és alapvető arckifejezéseket jelez. Hogy egy ilyen maszkot korrelál az eredeti keret, tárolja a vektor, az adatokat a amelyeket kiszabására külön maszkot a kép egy ember, ami után a kész animációt, mint a standard.

A Samsung megjegyzi, hogy az ilyen fejlesztés telepíthető TelePresence rendszerekben, videokonferenciákon, multiplayer játékokban és speciális effektusok létrehozásakor.

Mivel a ZDNET Edition írja, a Deepfake Technologies maguk nem újak, de a Samsung rendszer érdekes, mert nem használja a 3D-s modellezést, és lehetővé teszi, hogy egy “élő” arcmodellt csak egy fotó segítségével hozzon létre. Ha letölti a 32 pillanatfelvételt, akkor “Ideális realisztikus képet és személyre szabást érhet el, amelyet a vállalatban észleltek.

A fejlesztők rendszerének lehetőségeit a Marilyn Monroe, Salvador Dali és Albert Einstein fényképek tartalmazzák. Azonban festményekben és portrékban működik. A videóban a projekt szerzői az orosz író Fyodor Dostoevsky “forgó” portréját mutatták be.

A fejlesztési demonstráció idején a mozgások mesterségessége – ezeknek a hibáknak a kiküszöbölése a jövőben a jövőben tervezi.[5]

McAfee: A videóban lévő személyek almenüje már lehetetlen meghatározni

Március elején a McAfee, amely a kiberbiztonsági problémákkal foglalkozik, beszámolt arról, hogy a videóban lévő személyek almenüje már a szabad szemmel határozható meg. A programban beszédet a RSA kiberbiztonsági konferencián San Francisco Steve Gobman igazgatója McAfee technológiák és Celeste Fralia (Celeste Fraalick), a vezető szakértője az adatokat, figyelmeztették, hogy az új technológia alkalmazása hackerek csak egy kérdés idő.

Most, hogy a támadók képesek létrehozni az egyéni céltartalmat, az AI-t különböző célokra használhatják – például a szociális pszichológiai technikák vagy az adathalász támadások segítségével. A személyre szabott adathalászat, azaz a bank bizalmas adatok megszerzésére irányuló csalás sikeresebb, de a mesterséges intelligencia új lehetőségeit lehetővé tegyék annak érdekében, hogy az automatizált támadások mértékét elvégezzék.

A valódi anyagokból származó mélyfékes videó bonyolultabb lesz, és problémává válhat a kimerültség számára, a szakértők úgy vélik

Van egy egész terület a számítógépes biztonság, az úgynevezett küzdő gépi tanulás, ahol lehetséges cyberatics gépi tanulási osztályozók is tanulmányozták. A McAfee szakértői úgy vélik, hogy a kép helyettesítési technikája komoly fenyegetést jelent, és használható a kép osztályozó torzítására.

Az emberek és ai becsapás egy módja annak, hogy valódi fotót készítsen, és észrevétlenül változtassa meg kis részét. Tehát minimális változással a pingvinek serpenyőben értelmezhetők. Azonban a súlyosabb méretű hamis válaszok katasztrofális következményekkel járhatnak.

Gobbman hangsúlyozta, hogy önmagában a Deepfake technológia olyan eszköz, amely széles körű felhasználásra használható. Lehetetlen megtiltani a támadókat, hogy használják az új technikákat, de a védelmi vonal időben történő használatát, hisz.[6]

Kovácsolt II-pornó Stroarizált nők

Az év elején a mesterséges intelligencia elérte ezt a fejlettségi szintet, ami megkönnyíti és anélkül, hogy különleges technikai készségeket “tenné” a csillagok és a hétköznapi nők számára a pornó színésznők testéhez, hogy reális videót hozzon létre. Ezek a Frank filmek, amelyek a Deepfake módszerrel készültek, olyan videók, amelyeket megkülönböztethetnek ezekből. Megjelenésük veszélyes, hogy a technológia elkezdheti használni a hamis hírek terjesztésére. De még nagyobb veszélyt jelent, mint a nők zsarolásának és megaláztatásának eszköze.

Az AI eloszlásának fényében és a korábbi partnerek, a kollégák és más emberek képeihez való könnyű hozzáférés nélkül, anélkül, hogy beleegyeznének a közösségi hálózatok, például a “Vkontakte” és a Facebook, a hamis görgők létrehozásának növekvő igényeihez. Annak ellenére, hogy a törvény az áldozatok oldalán lehet, gyakran jelentős akadályokkal szembesülnek az üldöztetés nehézségeivel az interneten.

A hamis pornó pornó ugyanolyan stresszt okoz, mint a hálózatban meghatározott intim fotók “- mondja az író és a korábbi politikus Charlotte Loz (Charlotte törvények). – a hamis pornó reális, és befolyása súlyosbítja a hamis hírek növekedését, köztük élünk.

Hamis az AI Porn Stroarizált nőkkel

A LOSE hamis videót ad hozzá a szokásos módon, hogy megalázza vagy zsarolja a nőket. A felmérés során, amely részt vett a nők, akik áldozatai voltak a pornó, elveszítette, hogy 12% lett áldozatai hamis pornó.

A probléma megoldásának egyik módja lehet felülvizsgálata és a pornót tiltó törvények hozzáadása. Ezek a törvények, amelyek az év elején léteznek 41 amerikai államban, a közelmúltban jelentek meg, és jeleznek változás a kormány hozzáállása “ellentmondásos” pornográfia.

Fodrált pornó “Részvétel” színésznő Paul Gadot

Egy másik megközelítés az elkövetők elleni polgári pert indítása. Amint azt egy független nonprofit szervezet elektronikus határ-alapítvány honlapján jegyezte meg, azoknak a személyeknek, akik a hamis pornó áldozatait végződtek, az USA-ban beperelhetnek rá, vagy bemutatják őket a “hamis fényben”. Azt is benyújthatnak egy követelést a “joga a közhasznú használatra”, jelezve, hogy a videó alkotói az áldozat képétől az engedély nélkül részesültek.

Mindezen lehetséges döntések azonban komoly akadályt találhatnak: a szólásszabadság törvénye. Bárki, aki beperelte létrehozását hamis henger megállapíthatjuk, hogy a videó egy formája a kulturális vagy politikai véleménynyilvánítás és alá az első módosítás. A vesztes úgy véli, hogy hamis pornó pornolisták esetén a bírák többsége az első módosításra való hivatkozással van konfigurálva, különösen akkor, ha az áldozatok nem ismertek személyiségek, és a videó csak a szexuális kizsákmányolást érinti, és nem tartalmazza a politikai szatíra vagy művészi értéket képviselő anyagokat.

A hamis pornovideo töredéke, amelyben a pornó színésznők arca cserélte a Star Hollywood Paul Gadot arcát

Ugyanakkor szinte nincs lehetőség arra, hogy bezárjunk egy támadó videót. Ennek oka az Egyesült Államok törvénye, amely megvédi a szolgáltatót, hogy a felhasználók közzéteszik az oldalukon. Olyan helyek esetében, amelyeken a hamis pornó pornó kerül, a szolgáltatók kártéríthetetlenséget igényelhetnek, mert nem, és a felhasználók videót töltenek le. Ebben a helyzetben való kivétel a szellemi tulajdon megsértése, ha az üzemeltető köteles eltávolítani az anyagokat, ha értesítést kap a szerzői jog tulajdonosából.

Loyola Törvény Iskola és a Könyv szerzője Szerzője a magánélet sérthetetlenségéről és a nyilvánossághoz való jogról, Jennifer Rothman (Jennifer Rothman), a bíróságok nem rendelkeznek egyértelműen azzal, hogy ez a kirekesztés az állami törvényekre vonatkozik-e ( például a nyilvánossághoz való jog) vagy csak a szövetségi (például a szerzői jog és a védjegy).

Ez felvetette azt a kérdést, hogy a kongresszus olyan törvényt dolgozhat meg, amely meglehetősen keskeny, hogy segítsen a hamis pornó áldozatainak segíteni, de amely nemkívánatos következményekkel jár. Figyelmeztető példával, az Aydaho Annemarie-i Egyetemre vonatkozó jogi professzor (Annemarie sútus) a szerzői jogi védelmi törvény illegális használatához vezet, amikor a vállalatok és a magánszemélyek tisztességtelenül működtek a jogi kritika és egyéb jogi tartalmak eltávolítása érdekében.

Mindazonáltal, a proszidetek szerint, mivel hamis pornográf videók esetében a térképre kerül sor, az új törvényre van szükség, a január 15-én január 15-i szerencse közzététele.[7]

Mesterséges intelligencia tanított az emberek mozgásainak a videóban

Fő cikk Mesterséges intelligencia a videóban

Ahogy az év júniusában ismertté vált, új fejlődés történt a mesterséges intelligencia (AI) területén, amely reális hamis videojátékokat hoz létre.

Eszközök, amelyek lehetővé teszik az ajkak mozgását és a már létező személy mimikonját. A futurizmus portál szerint azonban az új AI alapú rendszer jelentős javulást jelent a meglévő fejleményekben. Ez lehetővé teszi, hogy hozzon létre fotorealisztikus videókat, amelyben minden mozgás és a szavak, kimondott színész a forrás videó, átkerül a változó videó.

Új fejlődés volt a mesterséges intelligencia (AI) területén, amely lehetővé teszi, hogy reális hamis videojátékokat hozzon létre

A nyilvános fejlesztési demonstráció az év augusztusában kerül megrendezésre a Siggraph Computer Graphon konferencián. Az új rendszer tervezéseinek megteremtése arra, hogy megmutassák az új algoritmust összehasonlítva olyan kísérletek segítségével, amelyek meglévő eszközökkel rendelkeznek, amelyek már meglévő eszközökkel rendelkeznek, amelyek közül sokan részben a Facebook és a Google részlegesen fejlesztették ki. Az AI-n alapuló megoldások jellemzői meghaladják a meglévő rendszerek mutatóit. Amint azt jelentették, az AI rendszere csak néhány perc alatt dolgozik az eredeti telken, segít létrehozni egy kifogástalan hamis videót. A nehézségekkel küzdő kísérletek résztvevői sikerült megkülönböztetni a valódi videókat a hamisnak.

A fejlesztők, akik pénzügyi támogatást nyújt a Google reményében, hogy a munkát kell használni, hogy javítsa a virtuális valóság technológiák és biztosítja annak nagyobb mértékű rendelkezésre.

Cseréje az arc pornó színésznők a Lé csillag Hollywood

Az év decemberében a Pornorolik úgy tűnt az interneten állítólag a híres színésznő Gal Gadot részvételével. A valóságban azonban a videó a pornó színésznők teste volt, akinek az arcát a Mesterséges intelligencia segítségével a hollywoodi filmsztár arcát váltotta fel. További információ itt.

Cm. is

Robotika

  • Mesterséges intellektus (AI, mesterséges intelligencia, AI)
  • Áttekintés: Mesterséges intelligencia
  • Mesterséges intellektus (orosz piac)
  • Mesterséges intelligencia (világpiac)
  • Mesterséges intelligencia (Ukrajna piac)
  • A bankok, gyógyszerek, radiológia, kiskereskedelem, katonai-ipari komplexum, gyártási szféra, oktatás, autopilot, közlekedés, logisztika, sport, média és irodalom, videó (Deepfake, FakeApp), zene

Jegyzetek

Comments are closed, but trackbacks and pingbacks are open.