:
Breaking News

Előfordulhat, hogy olyat ír,ami igazságot tartalmaz

Előfordulhat, hogy olyat ír,ami igazságot tartalmaz

A mesterséges intelligencia (MI) története valamikor az 50-es években kezdődött, amikor a ma Szilícium-völgynek hívott terület még a világháború alatt ipari szennyezéssel tönkretett földeket jelentette. Az MI-tól való félelem pedig érdekes módon még korábbra, Mary Shelley 1818-as Frankensteinjéig vezethető vissza. Az emberiségben ez a mű biztosan elültette az aggodalmat, hogy teremtménye egyszer ellene fordul.


A 20. század második felének popkultúrája tele van öntudatra ébredő gépekkel (például a Terminátor vagy a Háborús játékok című filmekben), és hangsúlyosan jelen van a digitális élet megtervezésének vágya is. Utóbbira remek példa, hogy még a John Horton Conway cambridge-i matematikus alkotta életjátékához hasonló egyszerű sejtszimulációk is lenyűgözik az embereket. A Game of Life volt minden idők egyik legnagyobb hatású számítógépes játéka. Sok mindent nem lehetett benne csinálni, a játékos azt dönthette el, hol vannak sejtek a pályán, majd elindíthatta a szimulációt. A sejtek négy-öt egyszerű szabály mentén fejlődtek. A szomszéd nélküli sejtek elhaltak, de a három szomszéddal rendelkező sejtek sem élik túl a kört, a pont három szomszéddal rendelkező halott sejtek pedig az új kört elevenen kezdik.

Weizenbaumot is meglepte, hogy az emberek intelligensnek
tekintik a programját.


Az egyszerű szabályok ellenére a sejtautomata lenyűgözte az embereket: az első önmagát sikeresen replikáló alakzat megtalálásáért még egy jelképes, ötvendolláros díj is járt 1970-ben. A glider gun nevű alakzatot Bill Gosper, az MIT csapatának vezetője küldte be, maga a játékpályán szaporodva áthaladó glider alakzat pedig azóta egyfajta hekkerszimbólum lett. Ha pedig a Google-ben rákeresünk, ma is találhatunk olyan életjátékverziókat, amikkel egy-két délutánt el lehet szórakozni.


Az életjátéknál komolyabb törekvés volt a mesterséges intelligencia kutatása, amihez ugyan a szükséges erőforrások – elsősorban a hardver és az idő – nem álltak rendelkezésre, ennek ellenére komoly munka folyt. 1966-ban jelent meg Joseph Weizenbaum MI-kutató csevegőrobotja, az Eliza, amit azóta az Emacs programozó szövegszerkesztőbe is beépítettek. Az Eliza mintafelismeréssel és szövegbehelyettesítéssel rogersi terapeutát játszott el, azaz visszakérdezett azokra a dolgokra, amiket a felhasználó mondott.

A Knowledge Navigator olyan, mintha a ChatGPT és Siri közös gyereke lenne.


A program nem tárolt adatokat a korábban elhangzottakról, és még kevésbé volt statisztikai jellegű tudása arról, hogy az egyes terápiás beszélgetésekben jellemzően mik hangzanak el. De így is képes volt az intimitás olyan légkörét megteremteni, hogy az MI-kutatás egyik nagy iparági legendája szerint Weizenbaum tesztelésre felkért titkárnője pár kérdés után kiküldte az informatikusokat, hogy a magánbeszélgetésébe ne olvassanak bele. A nagyon egyszerű, pusztán visszakérdezésre és minimális szövegmanipulációra tervezett program használata közben ugyanis úgy érezte magát a tesztelő, hogy terápiás helyzetbe került. Az ott elhangzottak pedig nem tartoztak a programozókra.

Csokornyakkendőt viselt, mint egy krupié
A technológiából lassan elfogyott a lendület, MI-tél köszöntött be, eltűnt a területről a hit és a tőke. Ezt az 1974 és 1980 közti időszakot új fellángolás követte, ám a 80-as évek végére beköszöntött a második MI-tél is. Aztán az Apple még 1988-ban megígérte egy nagyhatású Knowledge Navigator című jövőképvideóban, hogy beszélgetve lehet majd információt kérni és munkát végeztetni a jövő számítógépével.

Az MI-tél (AI winter) fogalma a „nukleáris tél” kifejezéstől ihletve 1984-ben jelent meg egy vitában az Amerikai Mesterségesintelligencia-szövetség éves találkozóján. A láncreakciószerű jelenség időről időre visszaveti a mesterségesintelligencia-fejlesztést. Először a mesterséges intelligenciával foglalkozók válnak pesszimistává, aztán a sajtó ábrándul ki a témából, majd az MI-kutatásba való befektetési kedv csökken, végül visszaesik vagy megszűnik a téma komoly kutatása.


A Knowledge Navigator a videó szerint nemcsak arra volt hivatott, hogy információkat keressen meg, de képes lett volna feladatok végrehajtására, naptárbejegyzések módosítására, és így tovább. Egyszerre volt Siri és ChatGPT, és mint ilyen, a 90-es években természetesen nem is valósult meg az ígéret. Pedig a mai ChatGPT-vel szemben ez a számítógépes ágens még csokornyakkendőt is viselt, mint egy krupié.


A 90-es években szakértői rendszerek néven futott egy darabig a mesterséges intelligencia kutatása. Ekkor azonban nem a statisztikai módszer számított az uralkodó iskolának, hanem a nagy tudásbázisok tervezése és építése, amikben aztán majd a program valahogyan navigál, és kérésre visszaadja a nekünk kellő információt. A tudás rendszerezésének kérdése még a mesterséges intelligencia létrehozásánál is régebbi probléma, Truman amerikai elnök főtudósa, Vannevar Bush 1945-ös Út az új gondolkodás felé (As We May Think) című esszéjében már felveti, hogy a jövőben szükség lesz egy, a személyes tudást rendszerezni segítő számítógépes rendszerre.
A mai technológiát, aminek a határait még nem értük el, csak abban lehetünk biztosak, hogy egyszer sikerül majd ezeket kitapogatni, a hardverek gyorsulása tette lehetővé. Annyi számítási kapacitáshoz férünk hozzá, illetve akkora tanítási adatbázisokat tudunk használni, amiről az MI úttörői álmodni sem mertek.

A Word okoskodó avatárja, Clippy valószínűleg a leggyűlöltebb virtuális karakter lett.


A felhasznált hardver és adatbázis méretei mellett érdemes megemlíteni azt is, hogy az anyagi források is nőttek. A ChatGPT mögött levő OpenAI-féle modell egyszeri tanításának az ára a milliárddolláros nagyságrendet is elérheti, a szükséges futásidő pedig egy hónap körül van. Ez egyben azt is jelenti, hogy a frissen learatott internetes szövegeket másnapra nem lehet megtaníttatni a modellel. Ha valóban keresőnek akarnák használni ezt a technológiát, úgy a csevegős, MI-s rétegnek ki kell tudni nyúlnia egy hagyományosabb keresőhöz, ahonnan a friss információkat beszerzi. Különben úgy járunk, mint a mostani ChatGPT-vel, ami büszkén mondja vissza, hogy Nagy-Britannia feje II. Erzsébet, mert annyira régi adatbázison tanították az elsőként kiadott modellt, hogy akkor még életben volt a királynő.

Még Henry Kissinger is
A mesterséges intelligencia kifejezés eleve egy irányba tereli azokat, akik meg akarják érteni a technológiát. Stefano Quintarelli olasz informatikus, korábbi parlamenti képviselő és az Európai Bizottság MI-s tanácsának tagja javasolta is, hogy a szakma használja inkább a „tanuló algoritmusok és gépi következtetések szisztematikus megközelítése” kifejezést. Ez angolul úgy hangzik, hogy Systematic Approaches to Learning Algorithms and Machine Inferences, aminek a rövidítése a SALAMI.


És lássuk be, nagyon nehéz azt a kérdést feltenni, hogy mikor ébredt öntudatra a szalámi. Azontúl, hogy zseniális vicc, Quintarelli felhívása arra is rámutat, hogy az intelligencia szóval elvárásokat vetítünk bele az alapvetően statisztikai módszerekkel szövegeket összerakó nagyméretű gépi rendszerekbe. A ChatGPT-nek az egyik őse ebből a nézőpontból a telefonok automatikus szókiegészítése, az autokorrekt, amit viszont senki sem tartott intelligensnek.
James Vincent, a The Verge újságírója az etológiában használt tükörpróbát ajánlja mint hasznos eszközt. Szerinte az emberiség épp most bukik meg, mert ugyanúgy, ahogy a magát a tükörben fel nem ismerő, hanem egy másik egyedet látó állat, az emberiség is egy másik intelligenciát lát. Miközben a számítógép csak visszatükrözi nekünk, amit mi írtunk az internetre, épp csak egy kicsit megkeverve a szövegeket.


Végül még Henry Kissinger is úgy gondolta, hogy két szerzőtársával együtt meg kell nyilvánulniuk a témában. A Wall Street Journal véleményrovatában megjelent esszé érdekessége, hogy a mai MI-fejlesztéseket a felvilágosodás tudományos forradalmával állítja szembe. Azt helyezi a probléma középpontjába, hogy míg a felvilágosodás a lépésről lépésre végzett tudományos vizsgálódást és ennek tanítását tette alapvetővé, addig a mesterséges intelligencia fekete dobozként viselkedik. Ugyan tudjuk azt kérni, hogy adjon forrásokat a válaszával együtt, de ezek nem problémamentesek. Így az emberiség tudása nőhet, írják Kissingerék, de a megértés nem.

A Google a csapat lúzere
A ChatGPT-vel, illetve általában a mostani nagy nyelvi modellekkel kapcsolatban nem szabad elfelejteni, hogy ezek szöveggenerátorok. Működésüknek a célja, hogy az embernek tetsző szöveget adjanak vissza. Mivel az internetről aratott szövegadatbázissal, könyvekkel, Wikipédiával etették, előfordulhat, hogy olyat ír, ami igazságot tartalmaz. Emellett el tud látni olyan feladatokat, például véletlen számot, egyszerűbb programokat tud generálni, és ezek is azt sugallják, hogy antropomorf módon okos a program.


A rendszerek egyik alapjellemzője az is, hogy egyelőre nincs bennük az állítások igazságtartalmát elbíráló szűrő. Ez egy embernek is nehéz, ezért komoly feladat az iskolai médiaismeret- és médiaértés-oktatás. Az agy sokkal bonyolultabb műveletekre képes, mint a mesterséges intelligencia. Az emberek kissingeri értelemben vett tudása lehet kisebb, de megértési képességei túlszárnyalják. Az OpenAI technológiájával felütött Bing kereső például szívesen kifejti nekünk – egy Reddit-kommentszálra hivatkozva –, hogy az asztrofogászatnak milyen szerepe lehet a jövőben, illetve mik a kutatási irányai.


A jelenséget, amikor kitalált adatokat és tényeket sorol a csevegőprogram, hallucinációnak nevezik. Egyáltalán nem meglepő, nem különleges, és még csak nem is hibás működés. A rendszer azt csinálja, amire tervezték, azaz szöveget generál, még akkor is, ha ehhez bullshitet kell írnia. Persze, ha elfogadjuk Harry Frankfurt bullshitelméletét, akkor nagyobb bűn pusztán a retorikai hatalomra, a hallgató meggyőzősére hajtva bármit mondani, annak igazságtartalmától függetlenül, mint hazudni. Ennek a kérdésnek azonban akkor lenne igazi értelme, ha a GPT-rendszerektől az igazság megfejtését vagy valós válaszokat várnánk. Ha annak tekintjük a technológiát, ami, azaz a felhasználók kezébe adott szöveggenerálós laborkísérletnek, akkor a kérdés fel sem merül.


Legalább két olyan jól hangzó indok is van, ami miatt a csevegős MI az évszak szenzációja. Az egyik az emberiség által elbukott tükörpróba. A másik a technológiai óriáscégek helyezkedése. A keresőpiac nevetségesen kicsi, 2,8 százalékos részesedését birtokló Microsoftnak nagyon megérte az a tízmilliárd dolláros befektetés, amit az OpenAI-vel kötött partneri viszonyért adott. „A Bingbe beépített csevegős funkció érdekesebbé teszi a keresési élményt, ha a találatok nem is feltétlenül helyesek, és jelzi, hogy a Microsoftnak van elképzelése jövőbeli szerepéről. Nem kell sokat mozdítani a lépésnek a cég részvényárfolyamán, hogy a befektetés megérje” – mondja Szabados Levente MI-szakértő.

A nő című filmnek tíz év jutott, eddig tűnhetett sci-finek.


Az OpenAI-nak hasonló elvek mentén érte meg kiadni a félig kész ChatGPT-t. Negyed éve a startupról beszél mindenki, ilyen márkaismertséget nem érhettek volna el, ha még csiszolgatják a rendszerüket, és nem elsőként lépnek vele piacra. Őszintén, kit érdekel, hogy a ChatGPT még azt sem tudja, hogy ki a brit uralkodó? A Google pedig, ami jelenleg a csapat lúzerének tűnhet, még szereli, és csak szűk körben teszteli a maga GPT-jét, és csak keveseknek tette elérhetővé a Bard nevű csevegős mesterségesintelligencia-megoldását. Ez anyagilag nem előnyös, de még kínosabb, ha a cég, aminek a neve úgy köznevesült, hogy a netest keresést jelentse, rossz találatokat kezd el szórni egy modernebb felületen.


Ha annak tudatában vagyunk, hogy nem Spike Jonze Her (A nő) című filmjét látjuk megvalósulni, amiben egy egész bolygó ugyanabba az MI-be szerelmes, hanem egy üzleti drámát, rögtön több értelme lesz mindennek. A hasonlóság már csak azért sincs meg, mert A nőben a valódi mesterséges intelligenciának nem kellett mindig elmondani kérdésfeltevés előtt, hogy milyen feltételek mellett értse a következő mondatokat. A ChatGPT és a vele versenyző technológiák emberi nyelven irányíthatók ugyan, de ez nem az a nyelv, amit egymás között használunk. Az előfeltevések olyan átadására is szükség lehet, amik egy emberi beszélgetésben túlmagyarázásnak számítanának. Szélsőséges példa, de ilyesmit kell mondania egy prompt engineernek: „Generálj nekem egy képet, amin egy sör látható, de nem üvegben, nem hordóban, hanem egy asztalon levő üvegkorsóban!” Ezt a kérést egy képszerkesztőnek egyszerűen így fogalmaznánk meg: kéne egy kép egy sörről.

Illusztráció: Bárdos László

Az újságírókkal „kapcsolatban nem szabad elfelejteni, hogy ők is szöveggenerátorok. Munkájuk célja, hogy az embernek tetsző szöveget adjanak vissza. Azt csinálják, amire hivatottak, azaz szöveget generálnak, még akkor is, ha ehhez bullshitet kell írni.” Bocs, de nagyon tetszett a cikkben a tükörpróbás gondolat.

The post Előfordulhat, hogy olyat ír,
ami igazságot tartalmaz
appeared first on Forbes.hu.

Hirdetés

Cimkék

Keresés