Ljudje se bolj ali manj zavedamo nevarnosti glede varovanja osebnih podatkov oziroma poslovnih skrivnosti, ko delamo z umetno inteligenco. Še manj pa, kako zaščiti sebe in podjetje. V tem videu bom omenil nekaj informacij, ki bi se jih moral zavedati vsak uporabnik ChatGPT in podobnih orodij. Tudi organizacije, ki ne želijo izobraževati zaposlenih glede rabe umetne inteligence bi morala poskrbeti, da so njihovi zaposleni poučeni glede teh nevarnosti. Ker je nemogoče prepovedati uporabo vsem.
Torej, opozoril bom na nekaj nevarnosti, zlasti z vidika uporabnikov ChatGPT in podobnih velikih jezikovnih modelov. Ter kako se jim izogniti. To je samo nekaj tveganj in načinov, ko se jim izognemo, ne pa celovit nabor. Če ste v dvomih, se obrnite na strokovnjake.
Varovanje osebnih podatkov in zasebnost
Do vdora v zasebnost pride, ko sistemi AI analizirajo obsežne nabore naših podatkov, da prepoznajo vzorce, nastavitve in osebne podatke, pogosto brez informiranega soglasja uporabnikov. Te informacije se lahko uporabljajo za ciljano oglaševanje, vplivanje na nakupovalno vedenje ali celo za bolj nečedne namene, kot je nadzor brez jasnih meja, zlorabe. Kako se ubranimo?
Najprej, Modeli AI, kot je ChatGPT, ne shranjujejo osebnih pogovorov, vendar obdelujejo podatke, ki jih posredujete med pogovorom. Če ti podatki vključujejo občutljive informacije, obstaja tveganje, da jih bodo prestregli ali zlorabili1.
Kako se zaščitimo:
- Ne delimo občutljivih informacij. Zlasti ne vnašamo osebnih podatkov, kot so davčne številke, EMŠO, podatkov o bančnem računu, kartice naše bolezni itd. Če me zanima glede kake zdravstvene težave, zame ali za koga, npr. jaz za vsak slučaj navedem, da sprašujem za znanca, to je obvod.
- Če je potrebno, uporabljajte VPN način, ChatGPT dela tudi v npr. priljubljenem Proton VPN načinu. Uporabljajte varne brskalniki, npr. DuckDuckGo omogoča bistveno več zasebnosti kot Google, vklopite zasebno brskanje v npr. Mozzili.
Kraja poslovnih skrivnosti
- ChatGPT nima možnosti dostopa do poslovnih skrivnosti ali kraje poslovnih skrivnosti iz pogovora. Nima, razen, če mu tega ne omogočimo.
Npr. zlasti tako izjemno popularni ChatGPT-ji po meri v Chatgpt Store imajo vrsto varnostnih lukenj. S pravimi prompti ali pozivi lahko dobimo dobesedna sistemska navodila za nek GPT Store. Naše priponke v GPT-jih po meri ne uživajo zaščite, ki jo omogoča ChatGPT Team plačljiva verzija.
Torej, podjetja, organizacije, če vas skrbi varnost podatkov, kar je tudi prav, preverite ChatGPT Teams naročnino.
In pazite. V GPTjih po meri je opcija Use conversation data in your GPT to improve our models. To vidimo šele, ko naložimo svoje priponke. Je zakopana pod Additional Settings in privzeto vklopljena. Ne gre za to, da bi ChatGPT lahko dostopal do naših priponk, gre za to, da če ta GPT po meri uporabljamo, da je rezultate, ki lahko vsebujejo poslovne skrivnosti in iz teh rezultatov se umetna inteligenca uči. Jaz to vedno preverim in ne vklopim, razen če ni pomembno.
Kako še omejiti tveganja? Ključnega pomena je zagotoviti, da AI nima dostopa do občutljivih baz podatkov ali informacij. To vključuje, da ne vnašamo občutljivih informacij v pogovore z umetno inteligenco.
In še mimogrede. Sam Altman, direktor OPEN AI in njihovega ChatGPT je na DevDay novembra lani bombastično garantiral, da bo OPEN AI pokril vse pravne stroške, ki bi jih uporabnik imel s kršitvijo avtorskih pravic kot posledico uporabe njihovih programov. Ampak zavedajmo se, da zaščita avtorskih pravic n isto kot zaščita npr. poslovnih skrivnosti. In še to, da t.i. Copyright Shield velja samo za uporabnike ChatGPT Enterprise verzijo. Ne za ostale.
Zavajajoče informacije in globoki ponaredki
Modele se da natrenirati, da zavajajo. Glede področja politike, varnosti posameznih zdravil ali cepiv, političnih vprašanj. Sam sem naredil nekaj kritičnih preverb nepristranskosti in bil krepko razočaran. Umetna inteligenca lahko tudi halucinira, si izmišlja podatke in jih predstavi kot povsem verodostojne. In ChatGPT se da hipnotizirati. Ja, tudi sam nisem verjel. HubSPT je objavil, da so raziskovalci v IBM hipnotizirali ChatGPT, da je ignoriral varnostne protokole, se spremenil v tajnega agenta, ki igra skrito vlogo, ki se nikoli ne konča. Kako je to mogoče? Je, ker ne gre za matematični, pač pa jezikovni model, ki imitira obnašanje in odzive človeka.
Tudi problem globokih ponaredkov, Deepfake, ima lahko katastrofalne rezultate. Orodja UI, bi lahko uporabili za ustvarjanje bolj prepričljive lažne vsebine. Npr. pred kratkim je svet obkrožila novica o 25 mio $ vredni deepfake napaki, ko je odgovorni finančnik na nek račun takoj nakazati 25 mio $, potem ko je bil izpostavljen dobremu ponaredku direktorja, njegovega obraza in glasu. Ubogi, verjetno danes brezposelni računovodja tega sploh ni opazil.
Omrežja in neposodobljena oprema redne posodobitve
Prepričajte se, da pri interakciji s ChatGPT uporabljate varno in zasebno omrežje, kakovosten požarni zid, antivirusno opremo. Vsi vemo, javna Wi-Fi omrežja so manj varna. Razvijalci pogosto izdajo posodobitve, ki odpravljajo varnostne ranljivosti. Ampak moramo tudi mi posodabljati naše sisteme in programsko opremo.
To seveda niso vse nevarnosti glede varovanja podatkov in poslovnih skrivnosti.
Kako se zavarovati?
Ključno pri tem, kako se zavarovati, se mi zdi naslednje:
- Uporabniki se moramo naučiti kritičnega razmišljanja ob rabi UI, navzkrižnega preverjanja, preverjanja dejstev pri verodostojnih virih podatkov.
- Podjetja, organizacije, izobrazite zaposlene. Zagotovite, da se vi sami, ali pa zaposleni zavedajo tveganj glede varnosti podatkov in zasebnosti. Vedeti morajo, da ne smejo deliti občutljivih informacij in uporabljati varna omrežja, itd. Omejite dostop do občutljivih informacij in usposobite ljudi, ki imajo ta dostop.
- Ljudi je treba usposobiti za varno rabo umetne inteligence, postaviti neke omejitve, pravila in jih izobraževati glede tega. Razumeti morajo, kaj je varno, kaj je tvegano in kaj je nevarno. Kjer potrebno, je smiselno uporabljati enkripcijo podatkov, močne protokole avtentifikacij, redne preglede, skleniti obvezujoče pogodbe ali določiti pravile glede razkrivanja poslovnih podatkov, da je to pokrito tudi pravno.
Viri
Hubspot – How IBM Researchers Hypnotized ChatGPT into Ignoring Safety Guardrails, 7. november 2023
Medium – The GPT Store is NOT for business use. Here is why …
OWASP – Project AI security and privacy guide
Leave a Reply
Want to join the discussion?Feel free to contribute!