Dôverujete svojmu úsudku? Hlasy generované umelou inteligenciou vás dokážu presvedčivo oklamať

Kyberkriminalita využívajúca umelú inteligenciu na vytváranie podvodných hlasových správ je na vzostupe.

Podvodníci využívajú umelú inteligenciu (AI) na vytváranie hlasových správ.

Umelá inteligencia prináša mnohé výhody, napríklad lepšiu zdravotnú starostlivosť, bezpečnejšiu dopravu, efektívnejšiu výrobu či lacnejšiu a udržateľnejšiu energiu. No nie je bez rizík. Za jedno z najväčších odborníci považujú stieranie hraníc medzi realitou a fikciou spojené s využívaním umelej inteligencie. V rukách kybernetických podvodníkov sa z umelej inteligencie stáva ľahko dostupný, lacný a veľmi efektívny nástroj na šírenie dezinformácií rôzneho druhu.

V USA, ale aj v iných krajinách sveta sa rozmáha nový druh kyberkriminality: podvodníci využívajú umelú inteligenciu na napodobňovanie hlasov reálnych ľudí. Cieľom ich konania je vymámiť od obetí peniaze.

Riziká plynúce z používania umelej inteligencie

Kyberzločinci využívajú nové technológie, ktoré sú vo veľkom dostupné online a často sú zadarmo. Na internete je k dispozícii celá škála aplikácií na generovanie hlasov umelou inteligenciou. Podvodníkom neraz stačí len veľmi krátka hlasová stopa. Dokážu z nej naklonovať hlas, vytvoriť z neho krátku hlasovú správu a rozposlať ju blízkym. Naklonované hlasy sú na nerozoznanie od hlasov skutočných ľudí.

Situáciu dokumentuje nedávny prípad z USA. Podvodníci kontaktovali matku 15-ročnej dcéry a pustili jej nahrávku, v ktorej počula vzlykať svoju dcéru. Následne sa ozval muž so žiadosťou o výkupné. Hlas dcéry však nebol skutočný, bol vygenerovaný umelou inteligenciou, a únos bol fingovaný. Matka ani na sekundu nezapochybovala, že v telefóne počula dcéru. Pre médiá uviedla, že hlas z nahrávky znel presne ako ona. Podvod sa tentoraz podarilo odhaliť včas, no mnohí ľudia také šťastie nemali a podvodníci ich touto cestou pripravili o veľa peňazí.

Prípad, ktorý teraz vyšetruje polícia, poukázal na to, aký obrovský potenciál v sebe ukrýva umelá inteligencia v rukách kyberzločincov.



Wasim Khaled, výkonný riaditeľ a spoluzakladateľ spoločnosti Blackbird.AI, pre Francúzsku tlačovú agentúru AFP uviedol, že hlasy klonované umelou inteligenciou sú na nerozoznanie od ľudskej reči, čo podvodníkom umožňuje získavať informácie a finančné prostriedky od obetí oveľa efektívnejšie. Spoločnosť Blackbird.AI sa zaoberá identifikáciou rizík spojených s využívaním digitálnych médií a technológií a ochranou spoločností aj jednotlivcov pred kybernetickými útokmi.

Presvedčivé deepfakes

Na naklonovanie hlasu stačí len malá ukážka reálneho hlasu človeka, niekedy len zopár sekúnd, ktorá sa dá získať z obsahu zverejneného online. „Krátka zvuková vzorka sa dá využiť na vytvorenie hlasových odkazov a textov. Dá sa dokonca použiť ako živý menič hlasu pri telefónnych hovoroch,“ uviedol Khaled. „Podvodníci môžu s hlasom pracovať a meniť prízvuk, pohlavie či dokonca napodobňovať spôsob reči blízkych osôb. Technológia umožňuje vytváranie presvedčivých deepfakes.“

Každý štvrtý respondent celosvetového prieskumu, na ktorom sa zúčastnilo 7 000 ľudí z deviatich krajín vrátane USA, uviedol, že má osobnú skúsenosť s podvodným klonovaním hlasu umelou inteligenciou alebo sa s tým stretol niekto z jeho okolia.

V prieskume, uverejnenom minulý mesiac laboratóriami McAfee so sídlom v USA, 70 percent respondentov uviedlo, že si nie je istých, či by „dokázali rozoznať rozdiel medzi klonovaným a skutočným hlasom“.

Hlasové podvodné správy zamerané na starších

Podvodníci sa často zameriavajú na starších ľudí, pričom zvyknú predstierať, že sú vnúčaťom obete. Vymysleným príbehom o dopravnej nehode, dlhoch či inej urgentnej situácii sa snažia z obetí vymámiť peniaze.

Podobnú skúsenosť mal aj starý otec 19-ročného Eddieho z Chicaga. Dostal telefonát od niekoho, kto znel úplne ako Eddie s tým, že chlapec potrebuje peniaze po dopravnej nehode. Bolo to natoľko presvedčivé, že skôr než bol podvod odhalený, začal starý otec zháňať peniaze a dokonca chcel založiť dom.

Hany Farid, profesor na UC Berkeley School of Information, upozorňuje, obeťou takéhoto útoku sa môže stať v podstate každý, najmä ak je aktívny na sociálnych sieťach. Tento druh podvodu je veľmi efektívny a rýchlo sa šíri, keďže vygenerovať realisticky znejúci hlas skutočného človeka je veľmi jednoduché.


ZDROJ: https://vedanadosah.cvtisr.sk/technika/informacne-a-komunikacne-technologie/doverujete-svojmu-usudku-hlasy-generovane-umelou-inteligenciou-vas-dokazu-presvedcivo-oklamat/

Pozorujem a obdivujem
s akou ľahkosťou sa mení Svet.
Čo bolo – niet a nové sa chystá.
Nikdy tá istá doba nepríde.
Keď niečo odíde prichádza nové.
A aké Zdroje človek použil,
taký má život, aby žil a sa poučil…

Kontakt

vedome@zijemevedome.sk

Rytierska doba

- His Majesty Alexander -

Najnovšie články

  • All Post
  • MINULOSŤ
  • MOZAIKA MÚDROSTI
  • Nezaradené
  • O SILE SLOVA
  • RYTIERSKA DOBA
  • Z HLBÍN POZNANIA
  • Z MYSLENIA
  • ZAUJÍMAVOSTI
  • ZDRAVÝ ŽIVOT
    •   Back
    • Človek
    • Príroda
    • Svet
    •   Back
    • Rytierska etika
    • Rytierska súčasnosť
    • His Majesty Alexander
    • Z minulosti Rádov
    •   Back
    • Prehistorická minulosť
    • Pred našim letopočtom
    • Náš letopočet
    • Posledných 300 rokov
    •   Back
    • Poznanie z línie Života
    • O Vesmírnych Konoch
    • Stará Vieronauka Slovenská
    •   Back
    • Slová Slovanov
    • Sila slova
    •   Back
    • Z mojich zápiskov
    • Z mojich veršov
    • Zamyslenia Mysle
    • Zamyslenia Ducha
    •   Back
    • Zdravý pohyb
    • Zdravé telo
    • Zdravá duša
    • Zásady spoločenského správania
    •   Back
    • Zbierka príbehov
    • Zbierka múdrosti Predkov
    • Zbierka rozprávok
Edit Template

Z myslenia

O sile slova

Mozaika múdrosti

Zaujímavosti

Zdravý život

Z hlbín poznania

Minulosť

Rytierska doba

© Copyright 2023, Žijeme Vedome. Všetky práva vyhradené.