3 „Chatbot“ privatumo pavojai ir rūpesčiai, apie kuriuos turėtumėte žinoti

3 „Chatbot“ privatumo pavojai ir rūpesčiai, apie kuriuos turėtumėte žinoti
Tokie skaitytojai kaip jūs padeda palaikyti MUO. Kai perkate naudodami nuorodas mūsų svetainėje, galime uždirbti filialų komisinius. Skaityti daugiau.   Aplink išmėtyta pakabinama spyna su klaviatūros klavišais

Pokalbių robotai egzistuoja jau daugelį metų, tačiau didelių kalbų modelių, tokių kaip „ChatGPT“ ir „Google Bard“, atsiradimas pokalbių robotų pramonei suteikė naują gyvenimą.





Milijonai žmonių visame pasaulyje dabar naudoja AI pokalbių robotus, tačiau yra keletas svarbių privatumo pavojų ir rūpesčių, į kuriuos reikia atsižvelgti, jei norite išbandyti vieną iš šių įrankių.





1. Duomenų rinkimas

Daugelis žmonių nenaudoja pokalbių robotų vien norėdami pasisveikinti. Šiuolaikiniai pokalbių robotai yra skirti apdoroti ir atsakyti į sudėtingus klausimus ir užklausas, o vartotojai dažnai įtraukia daug informacijos į savo raginimus. Net jei užduodate tik paprastą klausimą, tikrai nenorite, kad tai būtų daugiau nei jūsų pokalbis.





Pagal OpenAI palaikymo skyrius , galite ištrinti ChatGPT pokalbių žurnalus, kai tik norite, ir po 30 dienų tie žurnalai bus visam laikui ištrinti iš OpenAI sistemų. Tačiau įmonė išsaugos ir peržiūrės tam tikrus pokalbių žurnalus, jei jie buvo pažymėti dėl žalingo ar netinkamo turinio.

Kitas populiarus AI pokalbių robotas Claude taip pat seka jūsų ankstesnius pokalbius. Antropo pagalbos centras teigia, kad Claude seka „jūsų raginimus ir išvestis gaminyje, kad suteiktų jums nuoseklią produkto patirtį laikui bėgant pagal jūsų valdiklius“. Galite ištrinti savo pokalbius su Claude, kad jis pamirštų, apie ką kalbėjote, tačiau tai nereiškia, kad Anthropic iš karto ištrins jūsų žurnalus iš savo sistemų.



Tai, žinoma, kelia klausimą: ar mano duomenys yra saugomi, ar ne? Ar „ChatGPT“ ar kiti pokalbių robotai naudoja mano duomenis?

Tačiau rūpesčiai čia nesibaigia.





Kaip „ChatGPT“ mokosi?

Norint pateikti informaciją, dideli kalbiniai modeliai mokomi su didžiuliais duomenų kiekiais. Pagal Mokslo dėmesys , vien tik ChatGPT-4 per mokymo laikotarpį buvo pateikta 300 milijardų žodžių informacijos. Tai nėra paimta tiesiai iš kelių enciklopedijų. Atvirkščiai, pokalbių robotų kūrėjai savo modeliams apmokyti naudoja daugybę informacijos iš interneto. Tai gali apimti duomenis iš knygų, filmų, straipsnių, Vikipedijos įrašų, tinklaraščio įrašų, komentarų ir net apžvalgų svetainių.

Atminkite, kad, atsižvelgiant į pokalbių roboto kūrėjo privatumo politiką, kai kurie iš pirmiau minėtų šaltinių gali būti nenaudojami mokymuose.





Daugelis kritikavo „ChatGPT“, teigdami, kad tai yra kažkoks košmaras privatumo požiūriu „ChatGPT“ negalima pasitikėti . Taigi, kodėl taip yra?

Čia viskas šiek tiek susilieja. Jei tiesiogiai paklausite „ChatGPT-3.5“, ar jis turi prieigą prie produktų apžvalgų ar straipsnių komentarų, gausite tvirtą neigiamą atsakymą. Kaip matote toliau pateiktoje ekrano kopijoje, GPT-3.5 nurodoma, kad mokymo metu jai nebuvo suteikta prieiga prie vartotojų straipsnių komentarų ar produktų apžvalgų.

  „chatgpt-3.5“ pokalbio ekrano kopija

Atvirkščiai, jis buvo apmokytas naudojant „įvairų tekstą iš interneto, įskaitant svetaines, knygas, straipsnius ir kitą viešai prieinamą rašytinę medžiagą iki 2021 m. rugsėjo mėn.“.

Bet ar tas pats GPT-4 atveju?

Kai paklausėme GPT-4, mums buvo pasakyta, kad „OpenAI nenaudojo konkrečių vartotojų atsiliepimų, asmeninių duomenų ar straipsnių komentarų“ pokalbių roboto mokymo laikotarpiu. Be to, GPT-4 mums pasakė, kad jo atsakymai generuojami iš „duomenų modelių, pagal kuriuos jis buvo apmokytas ir kuriuos daugiausia sudaro knygos, straipsniai ir kitas tekstas iš interneto“.

geriausios nemokamos „vr“ programos „Android“

Kai tyrinėjome toliau, GPT-4 teigė, kad tam tikras socialinės žiniasklaidos turinys iš tiesų gali būti įtrauktas į mokymo duomenis, tačiau kūrėjai visada liks anonimiški. GPT-4 konkrečiai nurodė, kad „net jei turinys iš tokių platformų kaip Reddit buvo mokymo duomenų dalis, [jis neturi] prieigos prie konkrečių komentarų, įrašų ar bet kokių duomenų, kuriuos galima susieti su atskiru vartotoju“.

Kita svarbi GPT-4 atsakymo dalis yra tokia: „OpenAI aiškiai nenurodė visų naudojamų duomenų šaltinių“. Žinoma, OpenAI būtų sunku išvardyti 300 milijardų žodžių vertės šaltinius, tačiau tai palieka vietos spėlionėms.

In an Ars Technica straipsnis , buvo nurodyta, kad „ChatGPT“ renka „asmeninę informaciją, gautą be sutikimo“. Tame pačiame straipsnyje buvo paminėtas kontekstinis vientisumas – sąvoka, reiškianti tik kažkieno informacijos naudojimą tame kontekste, kuris iš pradžių buvo naudojamas. Jei „ChatGPT“ pažeidžia šį konteksto vientisumą, gali kilti pavojus žmonių duomenims.

Kitas susirūpinimą keliantis dalykas yra OpenAI atitiktis Bendrasis duomenų apsaugos reglamentas (BDAR) . Tai reglamentas, kurį įgyvendina Europos Sąjunga, siekdama apsaugoti piliečių duomenis. Įvairios Europos šalys, įskaitant Italiją ir Lenkiją, pradėjo „ChatGPT“ tyrimus dėl susirūpinimo dėl jos atitikimo BDAR. Trumpą laiką „ChatGPT“ buvo net uždraustas Italijoje dėl privatumo rūpesčių.

OpenAI praeityje grasino pasitraukti iš ES dėl planuojamų dirbtinio intelekto taisyklių, tačiau vėliau tai buvo atšaukta.

„ChatGPT“ šiandien gali būti didžiausias AI pokalbių robotas, tačiau „chatbot“ privatumo problemos prasideda ir nesibaigia nuo šio teikėjo. Jei naudojate šešėlinį pokalbių robotą, kurio privatumo politika yra blanki, jūsų pokalbiai gali būti naudojami netinkamai arba jo mokymo duomenyse gali būti naudojama labai jautri informacija.

2. Duomenų vagystė

Kaip ir bet kuris internetinis įrankis ar platforma, pokalbių robotai yra pažeidžiami elektroninių nusikaltimų. Net jei pokalbių robotas padarė viską, ką galėjo, kad apsaugotų vartotojus ir jų duomenis, visada yra tikimybė, kad sumanus įsilaužėlis sugebės įsiskverbti į jo vidines sistemas.

Jei tam tikroje pokalbių roboto paslaugoje buvo saugoma jūsų neskelbtina informacija, pvz., mokėjimų informacija už papildomą prenumeratą, kontaktiniai duomenys ar panašiai, ji gali būti pavogta ir panaudota, jei įvyktų kibernetinė ataka.

Tai ypač aktualu, jei naudojate mažiau saugų pokalbių robotą, kurio kūrėjai neinvestavo į tinkamą apsaugą. Galima ne tik įsilaužti į įmonės vidines sistemas, bet ir jūsų paskyrai, jei joje nėra prisijungimo įspėjimų ar autentifikavimo sluoksnio, gali būti pažeista.

Dabar, kai dirbtinio intelekto pokalbių robotai yra tokie populiarūs, kibernetiniai nusikaltėliai natūraliai pradėjo naudoti šią pramonę savo sukčiavimui. Suklastotos „ChatGPT“ svetainės ir papildiniai buvo didelė problema nuo tada, kai 2022 m. pabaigoje „OpenAI“ pokalbių robotas pateko į pagrindinį srautą, o žmonės, prisidengdami teisėtumu ir pasitikėjimu, pakliūdavo į aferas ir atiduodavo asmeninę informaciją.

2023 metų kovą MUO pranešė apie a netikras „ChatGPT Chrome“ plėtinys, vagiantis „Facebook“ prisijungimus . Papildinys gali išnaudoti „Facebook“ užpakalines duris, kad įsilaužtų į aukšto lygio paskyras ir pavogtų vartotojų slapukus. Tai tik vienas iš daugybės netikrų „ChatGPT“ paslaugų, skirtų nesuvokiant aukų, pavyzdys.

3. Kenkėjiškų programų infekcija

Jei naudojate šešėlinį pokalbių robotą to nesuvokdami, galite rasti pokalbių robotą, pateikiantį nuorodas į kenkėjiškas svetaines. Galbūt pokalbių robotas įspėjo jus apie viliojančią dovaną arba pateikė vieno iš savo teiginių šaltinį. Jei paslaugos operatoriai turi neteisėtų ketinimų, visa platformos esmė gali būti kenkėjiškų programų ir aferų platinimas per kenkėjiškas nuorodas.

„Windows 10“ „Bluetooth“ išjungtas

Arba įsilaužėliai gali pažeisti teisėtą pokalbių roboto paslaugą ir naudoti ją kenkėjiškoms programoms platinti. Jei šis pokalbių robotas yra labai žmonių, tūkstančiai ar net milijonai vartotojų susidurs su šia kenkėjiška programa. Netikros „ChatGPT“ programos netgi buvo „Apple App Store“. , todėl geriausia vaikščioti atsargiai.

Apskritai niekada neturėtumėte spustelėti jokių nuorodų, kurias anksčiau pateikė pokalbių robotas paleisti jį per nuorodų tikrinimo svetainę . Tai gali atrodyti erzinanti, bet visada geriausia būti tikram, kad svetainė, į kurią esate nukreipta, neturi kenkėjiško dizaino.

Be to, niekada neturėtumėte diegti jokių „chatbot“ papildinių ir plėtinių, prieš tai nepatikrinę jų teisėtumo. Atlikite nedidelį programos tyrimą, kad pamatytumėte, ar ji buvo gerai peržiūrėta, taip pat atlikite programos kūrėjo paiešką, kad pamatytumėte, ar nerandate nieko baisaus.

Pokalbių robotai nėra jautrūs privatumo problemoms

Kaip ir dauguma internetinių įrankių šiais laikais, pokalbių robotai buvo ne kartą kritikuojami dėl galimų saugumo ir privatumo spąstų. Nesvarbu, ar tai pokalbių robotų teikėjas, besikreipiantis dėl vartotojų saugumo, ar nuolatinė kibernetinių atakų ir aferų rizika, labai svarbu žinoti, ką jūsų pokalbių roboto paslauga renka apie jus ir ar joje taikomos tinkamos saugumo priemonės.