Nyolc évvel szerelme halála után egy gyászoló kanadai férfi a legmodernebb mesterséges intelligencia szoftver segítségével újra képes beszélgetni egykori barátnőjével. De mégis hogyan? És ez mennyire etikus?
A 33 éves Joshua Barbeau mindössze 5 dollárt fizetett azért, hogy részt vehessen a GPT-3 mesterséges intelligencia szoftver bétatesztjében, amelyet egy Elon Musk által társalapított kutatócsoport hozott létre.
Barbeau elmondta, hogy a lány korábbi szöveges üzeneteit és Facebook-bejegyzéseit használta fel ahhoz, hogy a chatbotot néhai szerelme stílusára és hangjára hasonlítson. A férfi 2012-ben veszítette el 23 éves kedvesét, Jessica Pereirát.
Etikai szempontból ellentmondásos jellege ellenére ritkán hallani olyan eseteket, amelyek túlmutattak a puszta tényszerűségen, és explicit normatív szemszögből elemezték az ügyet:
Barbeau azonban kisebb konfliktust okozott Rohrer és az OpenAI között, mivel a GPT-3 használata szexuális, romantikus, önkárosító célokra a vállalat szabványai szerint egyértelműen tilos.
Bár mindannyiunknak lehetnek megérzéseik azzal kapcsolatban, hogy helyes vagy helytelen-e egy gépi tanulással működő deadbotot kifejleszteni, a feladvány mégsem annyira egyszerű. Ezért fontos, hogy lépésről lépésre foglalkozzunk az eset által felvetett etikai kérdésekkel.
Például, elegendő-e egy személy, jelen esetben Barbeau beleegyezése Jessica halottrobotjának kifejlesztéséhez?
Mivel Jessica valódi személy volt, Barbeau beleegyezése egy őt utánzó deadbot létrehozásába nem tűnik elegendőnek. Az emberek még haláluk után sem pusztán tárgyak, amelyekkel mások kedvükre szórakozhatnak. Bizonyos erkölcsi kötelezettségeink vannak a halottakkal szemben.
Elég lenne Jessica beleegyezése ahhoz, hogy etikusnak tekintsük a halottrobot létrehozását? Mi van, ha ez megalázó az emlékezetére nézve?
A beleegyezés határa valóban ellentmondásos kérdés. Vegyük példaként a Rotenburgi kannibált, akit annak ellenére ítéltek életfogytiglani börtönbüntetésre, hogy áldozata beleegyezett abba, hogy megeszik. Ezzel kapcsolatban azzal érveltek, hogy etikátlan olyan dolgokhoz hozzájárulni, amelyek károsak lehetnek önmagunkra nézve, legyen szó akár fizikai (saját létfontosságú szerveink eladása), akár elvont értelemben (saját jogaink elidegenítése).
Az pedig, hogy konkrétan mi lehet káros a halottakra nézve, különösen összetett. Érdemes azonban megjegyezni, hogy még ha a halottakat nem is lehet ugyanúgy bántani vagy megsérteni, mint az élőket, ez nem jelenti azt, hogy sebezhetetlenek lennének. A halottaknak is ugyanúgy sérülhet a becsületük, jó hírnevük vagy a méltóságuk.
A harmadik kérdés az, hogy a mesterséges intelligencia rendszereknek törekedniük kell-e arra, hogy bármilyen emberi viselkedést utánozzanak?
Ez a kérdés régóta foglalkoztatja az AI-t, és szorosan kapcsolódik a Rohrer és az OpenAI közötti vitához. Kifejlesszünk-e olyan mesterséges rendszereket, amelyek képesek például másokról gondoskodni vagy politikai döntéseket hozni? Úgy tűnik, hogy ezekben a képességekben van valami, ami megkülönbözteti az embert minden mástól. Ezért fontos, hogy a mesterséges intelligencia techno-megoldási célokra való instrumentalizálása, például a szeretteink helyettesítésére, annak leértékeléséhez vezethet, ami minket emberként jellemez.
Kovács Rebeka
A 33 éves Joshua Barbeau mindössze 5 dollárt fizetett azért, hogy részt vehessen a GPT-3 mesterséges intelligencia szoftver bétatesztjében, amelyet egy Elon Musk által társalapított kutatócsoport hozott létre.
Barbeau elmondta, hogy a lány korábbi szöveges üzeneteit és Facebook-bejegyzéseit használta fel ahhoz, hogy a chatbotot néhai szerelme stílusára és hangjára hasonlítson. A férfi 2012-ben veszítette el 23 éves kedvesét, Jessica Pereirát.
Etikai szempontból ellentmondásos jellege ellenére ritkán hallani olyan eseteket, amelyek túlmutattak a puszta tényszerűségen, és explicit normatív szemszögből elemezték az ügyet:
miért lenne helyes vagy helytelen, etikailag kívánatos vagy elítélendő egy halottrobot (deadbot) kifejlesztése?
Mielőtt nekifognánk ezeknek a kérdéseknek, helyezzük a dolgokat perspektívába: Jason Rohrer, egy játékfejlesztő azért hozta létre a Project December nevű projektet, hogy az emberek személyre szabhassák a chatbotokat, olyan személyiségeket megalkotva, amilyennel kapcsolatba szeretnének lépni, feltéve, hogy fizetnek érte. A projektet a GPT-3 API, egy szöveggeneráló nyelvi modell felhasználásával tervezték, amelyet az OpenAI, egy mesterséges intelligenciával foglalkozó kutatócég fejlesztett ki.Barbeau azonban kisebb konfliktust okozott Rohrer és az OpenAI között, mivel a GPT-3 használata szexuális, romantikus, önkárosító célokra a vállalat szabványai szerint egyértelműen tilos.
Bár mindannyiunknak lehetnek megérzéseik azzal kapcsolatban, hogy helyes vagy helytelen-e egy gépi tanulással működő deadbotot kifejleszteni, a feladvány mégsem annyira egyszerű. Ezért fontos, hogy lépésről lépésre foglalkozzunk az eset által felvetett etikai kérdésekkel.
Például, elegendő-e egy személy, jelen esetben Barbeau beleegyezése Jessica halottrobotjának kifejlesztéséhez?
Mivel Jessica valódi személy volt, Barbeau beleegyezése egy őt utánzó deadbot létrehozásába nem tűnik elegendőnek. Az emberek még haláluk után sem pusztán tárgyak, amelyekkel mások kedvükre szórakozhatnak. Bizonyos erkölcsi kötelezettségeink vannak a halottakkal szemben.
Elég lenne Jessica beleegyezése ahhoz, hogy etikusnak tekintsük a halottrobot létrehozását? Mi van, ha ez megalázó az emlékezetére nézve?
A beleegyezés határa valóban ellentmondásos kérdés. Vegyük példaként a Rotenburgi kannibált, akit annak ellenére ítéltek életfogytiglani börtönbüntetésre, hogy áldozata beleegyezett abba, hogy megeszik. Ezzel kapcsolatban azzal érveltek, hogy etikátlan olyan dolgokhoz hozzájárulni, amelyek károsak lehetnek önmagunkra nézve, legyen szó akár fizikai (saját létfontosságú szerveink eladása), akár elvont értelemben (saját jogaink elidegenítése).
Az pedig, hogy konkrétan mi lehet káros a halottakra nézve, különösen összetett. Érdemes azonban megjegyezni, hogy még ha a halottakat nem is lehet ugyanúgy bántani vagy megsérteni, mint az élőket, ez nem jelenti azt, hogy sebezhetetlenek lennének. A halottaknak is ugyanúgy sérülhet a becsületük, jó hírnevük vagy a méltóságuk.
A harmadik kérdés az, hogy a mesterséges intelligencia rendszereknek törekedniük kell-e arra, hogy bármilyen emberi viselkedést utánozzanak?
Ez a kérdés régóta foglalkoztatja az AI-t, és szorosan kapcsolódik a Rohrer és az OpenAI közötti vitához. Kifejlesszünk-e olyan mesterséges rendszereket, amelyek képesek például másokról gondoskodni vagy politikai döntéseket hozni? Úgy tűnik, hogy ezekben a képességekben van valami, ami megkülönbözteti az embert minden mástól. Ezért fontos, hogy a mesterséges intelligencia techno-megoldási célokra való instrumentalizálása, például a szeretteink helyettesítésére, annak leértékeléséhez vezethet, ami minket emberként jellemez.
Kovács Rebeka