Etikátlan emberhez hasonló robotokat tervezni?

2017. június 24. 09:00

Meddig terjed ki az emberi együttérzés, nem veszélyes-e, ha érzelmekkel reagálunk mesterséges intelligenciával rendelkező tárgyakra? Elembertelenít-e az egyre emberibb MI?

2017. június 24. 09:00
David Ryan Polgar
Quartz

„Az emberi együttérzés általában élőkre terjed ki, és minél tudatosabbak, annál inkább együtt érzünk velük. Japán kutatók viszont 2015-ben egyértelműen bizonyították, hogy az ember empatikusan viszonyul látszólag szenvedő robotokhoz is. Agyszkenneléssel kimutatták, hogy emberek és emberkinézetű objektumok egyaránt ösztönösen empatikus reakciókat váltanak ki belőlünk.

Minél emberszerűbbé tesszük a chatbotokat, virtuális asszisztenseket és más gépeket, annál emberibb érzéseket táplálunk feléjük. Antropomorfizáljuk őket. Ha valami élőnek tűnik, természetünkből fakadón emberi szemmel nézzük. Akkor pedig különösen, ha a csevegőbotokhoz hasonlóan az öntudat illúzióját keltik. Ezért háborodtak fel sokan, amikor a YouTube videón belerúgtak a Boston Dynamics robotjába.

De ha humanizáljuk őket, ezzel párhuzamosan nem tárgyiasítjuk egyre inkább magunkat? Egyelőre nem világos, hogy az MI-hez való viszonyunk hogyan befolyásolja emberi kapcsolatainkat.

Az emberi együttérzés meghackelhető és veszélyes termékek fejlesztésére használható fel. Ezért terveznek emberi tulajdonságokkal rendelkező MI-ket, például társrobotokat. Azt akarják, hogy szeressük őket.

Az ember és nem ember közti interakciók gyors fejlődése két alapkérdést vet fel: hogyan kezelje a társadalom a valósághű MI-t? Mennyire valósághűnek tervezzenek vállalatok MI-tárgyakat, élményeket és chatbotokat?

A két kérdést együtt kell megválaszolni.”

az eredeti, teljes írást itt olvashatja el Navigálás

Kapcsolódó cikkek

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!

Ezek is érdekelhetik