Manusia Siap Memanfaatkan AI yang Baik Hati

Manusia berharap bahwa AI itu baik dan dapat dipercaya. Sebuah studi baru mengungkapkan bahwa pada saat yang sama manusia tidak mau bekerja sama dan berkompromi dengan mesin. Mereka bahkan mengeksploitasinya.

Bayangkan diri Anda mengemudi di jalan sempit dalam waktu dekat ketika tiba-tiba mobil lain muncul dari tikungan di depan. Ini adalah mobil self-driving tanpa penumpang di dalamnya. Apakah Anda akan mendorong dan menegaskan hak jalan Anda, atau memberi jalan untuk membiarkannya berlalu? Saat ini, kebanyakan dari kita berperilaku baik dalam situasi seperti itu yang melibatkan manusia lain. Akankah kita menunjukkan kebaikan yang sama terhadap kendaraan otonom?

IMAGES
Gambar: i.ytimg.com

Menggunakan metode dari teori permainan perilaku, tim peneliti internasional di LMU dan University of London telah melakukan studi online skala besar untuk melihat apakah orang akan berperilaku kooperatif dengan sistem kecerdasan buatan (AI) seperti yang mereka lakukan dengan sesama manusia.

Kerjasama menyatukan masyarakat. Seringkali kita harus berkompromi dengan orang lain dan menerima risiko bahwa mereka mengecewakan kita. Lalu lintas adalah contoh yang baik. Kita kehilangan sedikit waktu ketika kita membiarkan orang lain lewat di depan kita dan marah ketika orang lain gagal membalas kebaikan kita. Apakah kita akan melakukan hal yang sama dengan mesin?

Mengeksploitasi mesin tanpa rasa bersalah

Studi yang diterbitkan dalam jurnal iScience menemukan bahwa, pada pertemuan pertama, orang memiliki tingkat kepercayaan yang sama terhadap AI seperti halnya manusia: kebanyakan berharap untuk bertemu seseorang yang siap bekerja sama.

Perbedaan datang setelahnya. Orang-orang kurang siap untuk membalas dengan AI, dan malah mengeksploitasi kebaikannya untuk keuntungan mereka sendiri. Kembali ke contoh lalu lintas, seorang pengemudi manusia akan memberi jalan kepada manusia lain tetapi tidak untuk mobil yang mengemudi sendiri.

Studi ini mengidentifikasi keengganan untuk berkompromi dengan mesin sebagai tantangan baru bagi masa depan interaksi manusia-AI.

“Kami menempatkan orang pada posisi seseorang yang berinteraksi dengan agen buatan untuk pertama kalinya, karena itu bisa terjadi di jalan,” jelas Dr. Jurgis Karpus, ahli teori permainan perilaku dan filsuf di LMU Munich dan penulis pertama pembelajaran. “Kami memodelkan berbagai jenis pertemuan sosial dan menemukan pola yang konsisten. Orang-orang mengharapkan agen buatan untuk bekerja sama seperti sesama manusia. Namun, mereka tidak membalas kebaikan mereka sebanyak dan mengeksploitasi AI lebih dari manusia.”

Dengan perspektif dari teori permainan, ilmu kognitif, dan filsafat, para peneliti menemukan bahwa ‘eksploitasi algoritma’ adalah fenomena yang kuat. Mereka mereplikasi temuan mereka di sembilan percobaan dengan hampir 2.000 peserta manusia.

Setiap eksperimen meneliti berbagai jenis interaksi sosial dan memungkinkan manusia untuk memutuskan apakah akan berkompromi dan bekerja sama atau bertindak egois. Harapan para pemain lain juga diukur. Dalam permainan terkenal, Dilema Tahanan, orang harus percaya bahwa karakter lain tidak akan mengecewakan mereka. Mereka mengambil risiko dengan manusia dan AI, tetapi mengkhianati kepercayaan AI lebih sering, untuk mendapatkan lebih banyak uang.

“Kerja sama ditopang oleh taruhan bersama: Saya percaya Anda akan baik kepada saya, dan Anda percaya saya akan baik kepada Anda. Kekhawatiran terbesar di bidang kami adalah bahwa orang tidak akan mempercayai mesin. Tapi kami menunjukkan bahwa mereka percaya!” catat Prof. Bahador Bahrami, ahli saraf sosial di LMU, dan salah satu peneliti senior dalam studi tersebut. “Mereka baik-baik saja dengan membiarkan mesin turun, dan itulah perbedaan besar. Orang-orang bahkan tidak melaporkan banyak rasa bersalah ketika mereka melakukannya,” tambahnya.

AI yang baik hati dapat menjadi bumerang

AI yang bias dan tidak etis telah menjadi berita utama — mulai dari kegagalan ujian 2020 di Inggris hingga sistem peradilan — tetapi penelitian baru ini memunculkan peringatan baru. Industri dan legislator berusaha untuk memastikan bahwa kecerdasan buatan itu baik hati. Tapi kebajikan bisa menjadi bumerang.

Jika orang berpikir bahwa AI diprogram untuk berbaik hati kepada mereka, mereka tidak akan tergoda untuk bekerja sama. Beberapa kecelakaan yang melibatkan mobil self-driving mungkin sudah menunjukkan contoh kehidupan nyata: pengemudi mengenali kendaraan otonom di jalan, dan mengharapkannya untuk menyerah. Sementara itu, kendaraan self-driving mengharapkan kompromi normal antara pengemudi.

“Eksploitasi algoritma memiliki konsekuensi lebih lanjut. Jika manusia enggan membiarkan mobil self-driving yang sopan bergabung dari sisi jalan, haruskah mobil self-driving menjadi kurang sopan dan lebih agresif agar berguna?” tanya Jurgis Karpus.

“AI yang baik dan dapat dipercaya adalah kata kunci yang membuat semua orang bersemangat. Tetapi memperbaiki AI bukanlah keseluruhan cerita. Jika kita menyadari bahwa robot di depan kita akan bekerja sama, apa pun yang terjadi, kita akan menggunakannya untuk kepentingan kita sendiri, ” kata Profesor Ophelia Deroy, seorang filsuf dan penulis senior dalam studi tersebut, yang juga bekerja dengan Institut Penelitian Perdamaian Norwegia Oslo tentang implikasi etis dari pengintegrasian tentara robot otonom bersama dengan tentara manusia. “Kompromi adalah minyak yang membuat masyarakat bekerja. Bagi kita masing-masing, itu hanya terlihat seperti tindakan kecil untuk kepentingan pribadi. Bagi masyarakat secara keseluruhan, itu bisa memiliki dampak yang jauh lebih besar. Jika tidak ada yang membiarkan mobil otonom bergabung dengan lalu lintas, mereka akan membuat kemacetan lalu lintas mereka sendiri di samping, dan tidak membuat transportasi lebih mudah.”