Tudta-e?
A madárhang sokkal több információt rejt mint gondolnánk, például a foltos nádiposzáta énekét legalább ötven különböző hangelemből tetszés szerint állítja össze, az énekes nádiposzáta más madarak énekét úgy utánozza, hogy akár negyven idegen faj énekét is vegyítheti.

226-227. szám - 2023. július-augusztus

Kicsinál bennünket az MI

Sam Altman, az MI-hype frontembere óva int az MI-től (mesterséges intelligencia). Cége, az Open AI mégis szembe megy a törvényekkel.
Németből fordította és kommentálta Rózsa Sándor, Zentáról elszármazott vegyészdoktor

4

Az MI teremtői maguk akarják megmenteni a világot. Nem meglepő, ha egy cég azon törvények ellen lobbizik, melyek üzletét rontják. Előfordul, hogy egy cég szószólója egyet mond, de cége mást tesz. Az MI-cég OpenAI maga követeli az MI szigorú szabályzása visszavételét az EU politikusoknál. A TIME erről adatokat tett közzé. Eddig Altman az MI szigorú megregulázását követelte. „Nem alternatíva, hogy az OpenAI csinálja a szabályokat.” Most arra figyelmeztet, hogy technológiája kiolthatja az emberiséget. Ő jó embernek számít ott, ahol a Zuckerbergek és Muskok dezinformálnak. Őszintének tűnik, mikor termékei veszélyeire figyelmeztet. Az MI megfékezése prioritást kell, hogy kapjon, mint a pandémia idején a védekezés. Altman arról beszél, hogy biofegyverek az MI-vel könnyebben előállíthatók. Yoshua Bengio, egyike az MI kifejlesztőinek, arra figyelmeztet, hogy az MI önjáróvá válhat, amennyiben számítógépes teljesítményét megsokszorozza. Ez sci-fi-ként hangzik. Nincsenek olyan terhelő adatok, melyek ezt megerősítenék. Ezek a kockázatok mégis komolyan veendők, mert maguktól az MI megalkotóiktól jönnek.

Ám ez az érv csak addig áll meg, míg a politikusok nyilvános megszólalásai összhangban vannak tetteikkel. És itt ütközünk bele egy furcsaságba. Ha a brüsszeli politikusok a veszélyt komolyan veszik és az olyan modelleket, mint az OpenAI és a GPT magas kockázatú termékek közé sorolják, ez nem tetszene a cégnek. „A GPT-3 nem magas kockázatú rendszer.” Az AI Act egy törvény, mellyel az EU az MI-t meg akarja regulázni. A kockázatos alkalmazásokra szigorú szabályok érvényesek, gazdáik kötelesek kiadni, milyen adatokkal trenírozták rendszerüket. A MI szakvilága már rég úgy véli, Altman untergang-szcenáriói csak elterelés, hogy ne kelljen foglalkozni az MI okozta mostani valóságos problémákkal. Egyszerű – és talán helyes is – a távoli jövő kockázataira figyelmeztetni, ám a hitelesség végett beszélni kell saját rendszereik konkrét veszélyeiről. Nem kiadni saját edző-adatait kétségbe vonja a cég globális jó szándékát.

Az MI vállalkozások figyelmeztetései mögött egy rejtőzhet: marketing. Egy technológia, mely olyan hatalmas, hogy az emberiséget leigázza, segíthet is neki. Ez az OpenAi ígérete. Ezt a jövővíziót mindkét oldal táplálja. Talán a borúlátó szcenáriót egyszerűbb gerjeszteni, mivel milliárdosok hírszolgálatukkal, a második világ tézisükkel, a technikaoptimizmusnak nap mint nap behúznak egyet. Ám valószínű, hogy Altman és a levél többi aláírói intéseiket ugyanúgy komolyan veszik, mint ígéreteiket. Hisznek technológiáik erejében ugyanúgy, mint üdvös hatásaiban. Ám lényegében csak önmagukban bíznak, hogy minimalizálják a kockázatokat és technológiáik megmentik a világot. Az OpenAI biztonságos MI-t épít, ebbe törvényhozók ne avatkozzanak bele. A remény, hogy ez a hübrisz az MI-pionírokra nem olyan jellemző, mint a szilikonvölgy guruaira, a leleplezésekkel szertefoszlott.

ZEITonline, 25. 6. 2023

Regeln gerne, aber bitte nur die eigenen

KOMMENT

Johanna88: Az emberiség 3 fontos lépcsőt haladt meg: letelepedés a nomád élet után, ipari és most a digitális forradalom. Az elsőt ezer években, a másodikat száz években, a mostanit évtizedekben mérjük. Amikor úgy vigasztalnak, hogy a vonathoz és a szalaghoz is hozzászoktunk, a nevetés megakad a torkomban.

Wuerther: Föltalálás előtt jó volna átgondolni a következményeket, ahelyett, hogy utána játsszuk a világmegmentőt. A végén úgyis csak a profit az, ami számít.

Quarague: Az Altman-riogatások csak ködösítés. A skynet-szerű szcenárióktól a ChatGPT és co. még meglehetősen távol áll. Ezek nagyon jó chatbot-ok, de messze nem önálló intelligenciák. Altman célja, hogy a szabályozások az ilyen, a gyakorlatban teljesen irreleváns szcenáriókra vonatkozzanak. Magát jó szándékú szakembernek állítja be, aki szívesen ad tanácsot kormányoknak a törvénykezésnél. Eközben azokat a problémákat, amiket a chatbot-ok már most okoznak, negligálni lehet. Adatok fölhasználása automatikus diszkriminálásra megbocsátható – a computer döntött, semmit nem lehet tenni. Jöhet a spambot-riasztás, bármely politikai színezettel, és a konteók féktelen terjesztése. Számos olyan terület van, ahol szakavatott emberek ezen nyelvmodellek értelmes szabályozását elvégezhetnék. Az Altman által fölhozott témák egyike sem tartozik ide.

VisionM: Az MI egy munkaeszköz, jóra és rosszra is fordítható. Erről már az iskolában föl kell világosítani a gyerekeket. Átláthatóság, betekinthetőség – legyen demokratikusan biztosítva.

Tilopa66: Az MI az önmegsemmisítés még egy módja. Míg Rilke még dicsérte a teremtő szellemet, amely a földieket meghaladja, mára mégis egy profit- és hatalomittas rendszer nőtt a nyakunkra. Az univerzális valóságot korlátolt célokra használják föl. Ez az őrület egy olyan állapotot generál, amit csak gigantikus ráfordítással lehet megvédeni. Embereknél, akik tapasztalatok és összefüggések hiányával vannak, „disszociatív identitászavar” a diagnózis. Ez a tudatrés az MI-nél abszurd módon előnynek számít. A lényeges funkciókra való fókuszálás végül is meggyorsítja a folyamatokat. Ami embernél lelki betegség, az MI-nél pozitív tulajdonság.

Sir Thomas: 1830 körül orvosok óvták az embereket az 50-70 km/h sebességtől. Az AI, 200 évvel később, szintén sebességével veszélyeztet. Akkor a vasút egész államokat, kis despota országokat rogyasztott meg. Ha az AI a tudományos tények mentén működik, a klímaválság-tagadó réteg, de az AfD is eltűnhet.

 

Kapcsolódó cikkek

ISSN 2334-6248 - Elektronikus folyóiratunk havonta jelenik meg. ©2024 Fókusz. Minden jog fenntartva!
Design by predd | Code by tibor