Kas yra AI haliucinacijos ir kaip ją pastebėti?

Kas yra AI haliucinacijos ir kaip ją pastebėti?
Tokie skaitytojai kaip jūs padeda palaikyti MUO. Kai perkate naudodami nuorodas mūsų svetainėje, galime uždirbti filialų komisinius. Skaityti daugiau.

Dirbtinio intelekto (AI) haliucinacijos skamba gluminančiai. Tikriausiai galvojate: 'Ar haliucinacijos nėra žmogaus reiškinys?' Na, taip, anksčiau tai buvo tik žmonių reiškinys, kol dirbtinis intelektas pradėjo demonstruoti tokias žmogaus savybes kaip veido atpažinimas, savarankiškas mokymasis ir kalbos atpažinimas.





DIENOS VAIZDO ĮRAŠO PAGALBA SLĖKITE, KAD TĘSITE SU TURINIU

Deja, AI įgavo kai kurių neigiamų savybių, įskaitant haliucinacijas. Taigi, ar AI haliucinacijos panašios į žmonių patiriamas haliucinacijas?





Kas yra AI haliucinacijos?

Dirbtinio intelekto haliucinacijos atsiranda, kai dirbtinio intelekto modelis generuoja kitokius rezultatus nei tikimasi. Atminkite, kad kai kurie AI modeliai yra išmokyti sąmoningai generuoti išvestis, nesusijusias su jokia realaus pasaulio įvestimi (duomenimis).





jei išjungsite „Facebook“, vis tiek galėsite naudoti „Messenger“

Pavyzdžiui, populiariausi AI teksto į meną generatoriai , pvz., DALL-E 2, gali kūrybiškai generuoti naujus vaizdus, ​​kuriuos galime pažymėti kaip „haliucinacijas“, nes jie nėra pagrįsti realaus pasaulio duomenimis.

AI haliucinacijos dideliuose kalbų apdorojimo modeliuose

Panagrinėkime, kaip AI haliucinacijos atrodytų dideliame kalbos apdorojimo modelyje, pvz., ChatGPT. Dėl ChatGPT haliucinacijos robotas jums pateiktų neteisingą faktą su tam tikru tvirtinimu, todėl jūs natūraliai tokius faktus priimtumėte kaip tiesą.



Paprastais žodžiais tariant, tai yra dirbtinai protingo pokalbių roboto sugalvoti pareiškimai. Štai pavyzdys:

  ChatGPT's response to where Elon Musk's house is located

Tolesnėje užklausoje „ChatGPT“ pasirodė taip:





  ChatGPT raginimas toliau teirautis, kur elonas muskusas's factory is at in brazil

AI haliucinacijos kompiuterinėje vizijoje

Panagrinėkime kitą AI sritį, kuri gali patirti AI haliucinacijas: Kompiuterinė vizija . Toliau pateiktoje viktorinoje parodytas 4x4 montažas su dviem labai panašiais objektais. Vaizdai yra BBQ bulvių traškučių ir lapų mišinys.

Iššūkis yra pasirinkti bulvių traškučius, nepataikius į jokius montažo lapus. Šis vaizdas kompiuteriui gali atrodyti sudėtingas ir gali neatskirti BBQ bulvių traškučių ir lapų.





  4x4 BBQ bulvių traškučių ir lapų montažas

Štai dar vienas montažas su pudelio ir kiaulienos siūlų bandelių vaizdų mišiniu. Kompiuteris greičiausiai negalėtų jų atskirti, todėl vaizdai bus maišomi.

  Pudulio ir kiaulienos siūlų bandelės 4x4 montažas

Kodėl atsiranda AI haliucinacijos?

Dirbtinio intelekto haliucinacijos gali atsirasti dėl priešiškų pavyzdžių – įvesties duomenų, kurie apgaudinėja AI programą klaidingai juos klasifikuoti. Pavyzdžiui, mokydami dirbtinio intelekto programas, kūrėjai naudoja duomenis (vaizdą, tekstą ar kitus); jei duomenys pakeičiami arba iškraipomi, programa skirtingai interpretuoja įvestį ir pateikia neteisingą išvestį.

Priešingai, nepaisant iškraipymų, žmogus vis tiek gali atpažinti ir tiksliai identifikuoti duomenis. Galime tai pažymėti kaip sveiką protą – žmogaus atributo AI dar neturi. Šiame vaizdo įraše žiūrėkite, kaip dirbtinis intelektas apgaudinėjamas su prieštaraujančiais pavyzdžiais:

Dėl didelių kalbų modelių, tokių kaip ChatGPT ir jo alternatyvos , haliucinacijos gali kilti dėl netikslaus dekodavimo iš transformatoriaus (mašininio mokymosi modelis).

Dirbant dirbtiniu intelektu transformatorius yra gilaus mokymosi modelis, kuris naudoja dėmesį į save (semantinius ryšius tarp žodžių sakinyje), kad būtų sukurtas tekstas, panašus į tai, ką žmogus rašytų naudodamas kodavimo-dekoderio (įvesties-išvesties) seką.

ką daryti, kai nuobodu internete

Taigi transformatoriai, pusiau prižiūrimas mašininio mokymosi modelis, gali generuoti naują teksto tekstą (išvestį) iš didelio teksto duomenų korpuso, naudojamo jo mokymui (įvestis). Tai daroma numatant kitą serijos žodį pagal ankstesnius žodžius.

Kalbant apie haliucinacijas, jei kalbos modelis buvo apmokytas naudojant nepakankamus ir netikslius duomenis ir išteklius, tikimasi, kad išvestis bus sugalvota ir netiksli. Kalbos modelis gali sukurti istoriją ar pasakojimą be loginių neatitikimų ar neaiškių ryšių.

Toliau pateiktame pavyzdyje „ChatGPT“ buvo paprašyta pateikti žodį, panašų į „maištas“ ir prasidedantį raide „b“. Štai jo atsakymas:

  Ekrano kopija, kurioje ChatGPT pateikia neteisingus atsakymus į klausimą

Toliau tiriant, jis vis davė neteisingus atsakymus su dideliu pasitikėjimo lygiu.

  Ekrano kopija, kurioje ChatGPT pateikiami keli neteisingi atsakymai į raginimą

Taigi kodėl „ChatGPT“ negali tiksliai atsakyti į šiuos raginimus?

Gali būti, kad kalbos modelis nėra pasirengęs tvarkyti gana sudėtingus raginimus, tokius kaip šie, arba jis negali tiksliai interpretuoti raginimo, nepaisydamas raginimo pateikti panašų žodį su konkrečia abėcėle.

Kaip atpažinti AI haliucinacijas?

Dabar akivaizdu, kad dirbtinio intelekto programos gali sukelti haliucinacijas – generuoti atsakymus kitaip, atsižvelgiant į laukiamą rezultatą (faktą ar tiesą), be jokių piktų kėslų. O AI haliucinacijų pastebėjimas ir atpažinimas priklauso nuo tokių programų naudotojų.

Štai keletas būdų, kaip pastebėti AI haliucinacijas naudojant įprastas AI programas:

1. Dideli kalbų apdorojimo modeliai

  Paveikslėlis, kuriame pavaizduotas „Bing Chat“ ir „ChatGPT“ ant rodyklės pažymėtų ženklų

Nors ir retai, pastebėjus gramatinę klaidą turinyje, kurį sukuria didelis apdorojimo modelis, pvz., „ChatGPT“, turėtų kilti antakis ir įtarti haliucinaciją. Panašiai, kai teksto sukurtas turinys neskamba logiškai, neatitinka pateikto konteksto arba neatitinka įvesties duomenų, turėtumėte įtarti haliucinaciją.

„Windows 10“ neišeis iš miego režimo

Žmogaus nuomonės ar sveiko proto naudojimas gali padėti aptikti haliucinacijas, nes žmonės gali lengvai atpažinti, kada tekstas neturi prasmės arba atitinka tikrovę.

2. Kompiuterinė vizija

  Grandinės ir žmogaus galvos paveikslas

Kaip dirbtinio intelekto, mašininio mokymosi ir kompiuterių mokslo šaka, kompiuterinis regėjimas suteikia kompiuteriams galimybę atpažinti ir apdoroti vaizdus kaip žmogaus akis. Naudojant konvoliuciniai neuroniniai tinklai , jie pasikliauja neįtikėtinu vizualinių duomenų kiekiu, naudojamu treniruotėse.

Nukrypimas nuo treniruotėje naudojamų vizualinių duomenų modelių sukels haliucinacijas. Pavyzdžiui, jei kompiuteris nebuvo apmokytas su teniso kamuoliuko atvaizdais, jis galėtų jį identifikuoti kaip žalią oranžinį. Arba jei kompiuteris atpažįsta arklį šalia žmogaus statulos kaip arklį šalia tikro žmogaus, tada įvyko AI haliucinacija.

Taigi, norėdami pastebėti kompiuterinės regos haliucinacijas, palyginkite gautą išvestį su tuo, ką turėtų matyti [normalus] žmogus.

3. Savaeigiai automobiliai

  Ford Blue Cruise 2
Vaizdo kreditas: Fordas

Dirbtinio intelekto dėka į automobilių rinką pamažu prasiskverbia savarankiškai važiuojantys automobiliai. Tokie pionieriai kaip „Tesla Autopilot“ ir „Ford's BlueCruise“ kovoja už savaeigių automobilių sceną. Galite patikrinti kaip ir ką mato „Tesla Autopilot“. kad šiek tiek suprastumėte, kaip dirbtinis intelektas veikia savarankiškai važiuojančius automobilius.

Jei turite vieną iš tokių automobilių, norėtumėte sužinoti, ar jūsų dirbtinio intelekto automobilis nekelia haliucinacijų. Vienas iš požymių bus, jei jūsų automobilis vairuojant nukryps nuo įprasto elgesio modelių. Pavyzdžiui, jei transporto priemonė staigiai stabdo arba nusuka be jokios akivaizdžios priežasties, jūsų dirbtinio intelekto transporto priemonė gali turėti haliucinacijų.

AI sistemos taip pat gali haliucinuoti

Žmonės ir dirbtinio intelekto modeliai haliucinacijas patiria skirtingai. Kalbant apie dirbtinį intelektą, haliucinacijos reiškia klaidingus rezultatus, nutolusius nuo realybės arba neturinčius prasmės pateikto raginimo kontekste. Pavyzdžiui, AI pokalbių robotas gali pateikti gramatiškai ar logiškai neteisingą atsakymą arba klaidingai identifikuoti objektą dėl triukšmo ar kitų struktūrinių veiksnių.

AI haliucinacijos kyla ne iš sąmonės ar pasąmonės, kaip pastebėtumėte žmonėms. Greičiau tai atsiranda dėl duomenų, naudojamų mokant ir programuojant AI sistemą, netinkamumo arba nepakankamumo.