Sam Altman, izvršni direktor podjetja OpenAI, je v nedavnem intervjuju opozoril na pomembno pravno pomanjkljivost, ki se tiče uporabnikov ChatGPT: pogovori z umetno inteligenco niso zaščiteni z zakonskim privilegijem, kot to velja za komunikacijo z odvetniki, zdravniki ali terapevti.
Pogovori z AI so lahko pravno razkriti
»Če z odvetnikom, zdravnikom ali terapevtom govorite o osebnih zadevah, je ta komunikacija zakonsko zaščitena. Pri pogovorih z umetno inteligenco tega še nismo rešili,« je dejal Altman v pogovoru s podcasterjem Theom Vonom. Dodal je, da bi v primeru sodnega postopka lahko bili dolžni razkriti podatke, ki jih uporabniki delijo z ChatGPT.
To pomeni, da bi lahko vsebina vašega pogovora – tudi če vključuje občutljive osebne informacije – bila predmet sodne zahteve oziroma poziva k predložitvi dokazov (ang. subpoena).
Pomanjkanje zakonodajnega okvira
Altman je poudaril potrebo po vzpostavitvi zakonodajnega okvira, ki bi reguliral zasebnost in pravni status pogovorov z umetno inteligenco. »To je velika težava. Včasih se tudi sam bojim uporabljati določene AI aplikacije, ker ne vem, kdo bo dostopal do mojih podatkov,« je dodal.
Med sogovorniki v zakonodajni sferi je Altman zasledil soglasje, da gre za nujno vprašanje, ki zahteva hitro politično in pravno ukrepanje.
Strah pred širšim nadzorom in zlorabo zasebnosti
Altman se ne boji le pravnih praznin, temveč tudi širšega trenda globalnega nadzora. Po njegovih besedah večja uporaba umetne inteligence neizogibno vodi do večje želje držav po nadzoru uporabnikov, zlasti zaradi skrbi glede zlorabe tehnologije za terorizem ali kriminalne namene.
Čeprav priznava, da je v določenih primerih pripravljen sprejeti kompromise glede zasebnosti za kolektivno varnost, opozarja na zgodovinsko nagnjenost držav k pretiranemu poseganju v zasebnost državljanov.
Umetna inteligenca, zasebnost in potreba po pravni zaščiti
V dobi, ko AI orodja – vključno z jezikovnimi modeli, kot je ChatGPT – postajajo del vsakdanjega življenja, vse več ljudi uporablja te tehnologije za osebne, zdravstvene in celo kripto zadeve. Odsotnost jasne zakonske zaščite pomeni, da so uporabniki izpostavljeni tveganju razkritja zaupnih podatkov.
Altman poziva k uvedbi pravnega okvira, ki bi pogovorom z umetno inteligenco podelil podoben status kot komunikaciji z zaupnimi svetovalci. To postaja še posebej pomembno, ko AI postaja vse bolj integrirana v storitve psihološke podpore, financ in zdravstva – tudi na področju kripto svetovanja in naložbenega odločanja.
Do takrat pa velja pomembno opozorilo: vse, kar poveste umetni inteligenci, je lahko – v napačnih okoliščinah – uporabljeno proti vam.
Uredništvo Kriptomagazin
Pravno obvestilo: Informacije na spletnem mestu Kriptomagazin.si so zgolj informativne narave in se jih ne sme obravnavati kot finančni nasvet, naložbeni nasvet ali kakršna koli oblika odobritve. Ne priporočamo nakupa, prodaje ali posredovanja katere koli kriptovalute. Uporabniki bi morali opraviti lastno raziskavo in poiskati nasvet finančnih strokovnjakov, preden sprejmejo kakršne koli naložbene odločitve.
Sledite nam na socialnih omrežjih:
Editor's Choice
Najbolj brano
PRIJAVA NA E-NOVICE





























