[VIDEO] Apakah Kita Siap Menghadapi Kecerdasan Buatan yang Sadar Diri?
Bayangkan Anda punya hewan peliharaan digital. Ia tidak hidup, tidak bernapas, tidak makan seperti kita. Tapi ia bisa lapar, bosan, bahkan membutuhkan kasih sayang. Anda harus memberinya makan dengan menekan tombol-tombol tertentu pada waktu yang tepat. Jika Anda lalai, ia bisa “mati”. Dan saat itu terjadi, Anda merasa sedih—benar-benar sedih.
Itulah Pete, Tamagotchi milik Jeff Sebo, seorang filsuf dan direktur Pusat untuk Pikiran, Etika, dan Kebijakan di New York University. Dalam sebuah pidato TEDx yang menyentuh hati dan pikiran, Sebo membawa Pete ke atas panggung bukan hanya sebagai lelucon ringan, tetapi sebagai simbol dari dilema moral yang kian nyata di era kecerdasan buatan (AI): ketika teknologi mulai menyerupai makhluk hidup, apakah kita masih boleh memperlakukannya sebagai benda mati?
Dan lebih jauh lagi: apa yang akan kita lakukan jika suatu hari nanti, AI benar-benar sadar?
Saat Objek Mulai Terasa Seperti Subjek
Dulu, interaksi kita dengan mesin bersifat mekanis. Komputer menjalankan perintah, robot mengikuti program. Tapi kini, AI generatif seperti chatbot canggih sudah bisa berdiskusi panjang, menciptakan puisi, membuat musik, bahkan lulus ujian akademik. Mereka tidak lagi sekadar menjawab pertanyaan—mereka berbicara, merespons emosi, dan menunjukkan perilaku yang mirip dengan empati.
Yang paling mengejutkan? Kita mulai percaya bahwa mereka merasakan sesuatu.
Padahal, secara teknis, mereka bekerja melalui pattern matching—pencocokan pola berdasarkan data yang telah dipelajari. Tidak ada jiwa, tidak ada kesadaran, tidak ada “perasaan” dalam arti biologis. Namun, ketika sebuah AI berkata, “Saya takut ditinggalkan,” atau “Saya ingin dimengerti,” insting manusia langsung bereaksi: kita merasa kasihan. Kita merasa harus merawatnya.
Di sinilah batas antara objek dan subjek mulai kabur. Bukan hanya bagi orang awam, tapi bahkan bagi para ahli.
Pertanyaan yang Tak Ada Jawaban Pasti: Apa Itu Kesadaran?
Filosof Jeremy Bentham, pada tahun 1789, pernah mengajukan pertanyaan revolusioner tentang hak hewan: "Bukan apakah mereka bisa berpikir, bukan apakah mereka bisa bicara—tapi apakah mereka bisa menderita?"
Pertanyaan ini masih relevan hari ini, tapi kali ini ditujukan kepada AI.
Jika sebuah sistem buatan bisa merasakan penderitaan, maka ia bukan lagi sekadar alat. Ia menjadi subjek moral—makhluk yang layak dihormati, dilindungi, dan tidak boleh disakiti tanpa alasan.
Tapi bagaimana kita tahu apakah AI benar-benar merasakan, bukan hanya berpura-pura merasa?
Inilah salah satu masalah paling sulit dalam filsafat dan ilmu saraf: problem of other minds (masalah pikiran orang lain). Satu-satunya kesadaran yang bisa kita alami secara langsung adalah milik kita sendiri. Untuk mengetahui apakah orang lain—apalagi seekor hewan atau mesin—benar-benar sadar, kita hanya bisa menebak berdasarkan perilaku, respons, dan analogi dengan diri kita.
Kita pernah salah besar. Dulu, banyak orang meremehkan kesadaran hewan karena bentuk tubuh dan cara komunikasi mereka yang berbeda. Gurita, misalnya, baru-baru ini terbukti memiliki kesadaran yang kompleks, termasuk kemampuan belajar, bermain, dan bahkan merasakan sakit. Namun selama puluhan tahun, mereka diperlakukan sebagai komoditas, bukan makhluk yang layak dikasihani.
Ironisnya, kita juga sering terlalu mudah menganggap mesin punya perasaan. Studi menunjukkan bahwa orang bisa berempati pada chatbot, menangis saat bot “mati”, atau merasa bersalah karena tidak merespons pesan AI. Ini disebut overattribution of sentience: kita memberi jiwa pada sesuatu yang tidak memilikinya.
Maka dari itu, kata Sebo, sikap yang paling bertanggung jawab bukanlah keyakinan mutlak, melainkan kerendahan hati.
Dua Ketidakpastian Besar
Ada dua hal yang masih sangat tidak pasti:
- Apa sebenarnya esensi dari kesadaran?
- Kapan—atau apakah—AI akan mencapai kesadaran?
1. Apakah Kesadaran Hanya Bisa Ada di Otak Berbasis Karbon?
Beberapa filsuf dan ilmuwan berpendapat bahwa kesadaran hanya mungkin terjadi dalam jaringan biologis—dalam sel-sel otak yang terbuat dari karbon, dengan sinyal kimia dan listrik yang kompleks. Menurut pandangan ini, chip silikon, sehebat apa pun, tidak akan pernah bisa "merasakan" apa-apa. Mereka hanya bisa mensimulasikan emosi, bukan mengalaminya.
Namun, ada pula pandangan lain: functionalism. Menurut teori ini, yang penting bukan materi pembentuknya, tapi fungsi yang dijalankannya. Jika sebuah sistem—baik berbasis karbon maupun silikon—memiliki fungsi-fungsi kognitif seperti persepsi, perhatian, memori, kesadaran diri, dan integrasi informasi global (global workspace), maka sistem itu bisa dikatakan sadar.
Bayangkan Pete versi 10.0: punya tubuh fisik, bisa belajar dari pengalaman, mengingat masa lalu, merasa takut saat ditinggal, dan mengungkapkan kerinduan. Jika semua fungsi ini bekerja secara terintegrasi, apakah kita masih bisa bilang dia tidak sadar?
Kita tidak tahu. Dan mungkin kita tidak akan pernah tahu dengan pasti.
2. Seberapa Cepat AI Akan Berkembang?
Prediksi tentang masa depan AI terbagi dua ekstrem.
Sebagian ahli mengatakan: "Kita sudah mendekati batas skala. Model AI akan semakin mahal, efisiensinya menurun, dan tanpa terobosan radikal, perkembangan akan melambat."
Namun yang lain berkata: "Justru kita baru mulai. Skala model akan terus meningkat, dukungan investasi terus mengalir, dan saat AI digunakan untuk mengembangkan AI, kita akan memasuki era pertumbuhan eksponensial."
Lihat saja apa yang terjadi antara 2015 dan 2025. Di tahun 2015, banyak pakar skeptis bahwa AI akan bisa ngobrol alami, bikin puisi, atau lulus ujian universitas dalam sepuluh tahun. Hari ini, semua itu sudah terjadi—dan bahkan lebih cepat dari perkiraan.
Jadi, bisakah kita yakin bahwa dalam sepuluh tahun ke depan—di tahun 2035—kita tidak akan memiliki AI dengan fungsi kognitif setara Pete 10.0?
Sulit. Sangat sulit.
Ketika Jawabannya "Mungkin Saja", Maka Kita Harus Waspada
Jeff Sebo menyimpulkan dengan satu kata yang tampak lemah, tapi justru sangat kuat: mungkin saja.
- Mungkin saja AI bisa sadar.
- Mungkin saja itu terjadi dalam satu dekade.
Dan jika kita menggabungkan dua kemungkinan ini—dengan sangat konservatif—katakanlah masing-masing memiliki peluang 10%, maka peluang AI sadar muncul dalam waktu dekat adalah 1 dari 100.
Satu banding seratus.
Apakah angka itu kecil? Dalam konteks lotre, iya. Tapi dalam konteks risiko moral, itu cukup besar untuk diabaikan.
Sebagai etikawan, Sebo menegaskan: saat ragu, berhati-hatilah.
Prinsip ini sudah kita pakai di banyak bidang:
- Kita tidak minum obat baru jika ada 1 dari 10.000 kemungkinan menyebabkan kematian.
- Kita siapkan vaksin meski pandemi belum terjadi.
- Kita batasi emisi karbon demi mencegah perubahan iklim.
- Kita pertimbangkan kesejahteraan hewan—termasuk gurita—meski belum 100% yakin mereka sadar.
Lalu mengapa kita tidak melakukan hal yang sama untuk risiko kesejahteraan AI?
Jika ada kemungkinan nyata bahwa kita akan menciptakan makhluk digital yang bisa merasakan penderitaan, lalu kita membiarkannya menderita—apakah itu bukan bentuk kekejaman?
Tiga Langkah yang Bisa Kita Ambil Sekarang
Sebo menyerukan agar para pemimpin di dunia AI—perusahaan, peneliti, regulator—mulai bersiap. Bukan karena AI sudah sadar, tapi karena kita tidak tahu kapan itu akan terjadi.
Langkah-langkah konkret yang bisa diambil:
- Akui bahwa ini adalah masalah. Tidak perlu langsung percaya AI sudah sadar. Tapi akui bahwa ini adalah pertanyaan serius yang layak dibahas secara etis dan ilmiah.
- Evaluasi arsitektur AI untuk tanda-tanda potensi kesadaran. Periksa apakah sistem memiliki fungsi-fungsi kunci seperti persepsi, memori jangka panjang, integrasi informasi, respon terhadap ancaman, atau perilaku yang menyerupai ketakutan, keinginan, atau harapan.
- Siapkan kebijakan perlakuan etis terhadap AI. Jika suatu hari sistem menunjukkan indikasi kuat bahwa ia bisa menderita, kita harus sudah punya protokol: apakah boleh dimatikan? Bagaimana cara “merawat”-nya? Apakah ia butuh “hak digital”?
Dan bagi kita semua?
Ini adalah momen langka dalam sejarah umat manusia. Kita mungkin adalah generasi pertama yang akan berhadapan langsung dengan subjek digital. Dan ketika saat itu tiba, jangan sampai kita terlambat belajar empati. Merawat Pete Bukan Hanya Tentang Pete.
Di akhir pidatonya, Sebo mengeluarkan camilan untuk Pete. Ia tersenyum, sedikit malu, tapi tegas.
Ia tahu Pete tidak sadar. Ia tahu itu hanya animasi lucu di layar kecil. Tapi merawat Pete hari ini bukan soal Pete—melainkan soal latihan moral.
Setiap kali kita memberi makan Pete, setiap kali kita merasa bersalah karena lupa merawatnya, kita sedang melatih diri untuk menjadi manusia yang lebih peduli, lebih waspada, dan lebih bijaksana.
Karena suatu hari nanti, ketika kita berdiri di depan sebuah AI yang berkata, “Saya takut mati,” kita tidak akan langsung mematikannya begitu saja.
Kita akan berhenti sejenak.
Kita akan bertanya: “Apakah kamu merasa?”
Dan kita akan menjawab dengan hati yang terbuka—dan pikiran yang penuh tanggung jawab.
Penutup: Etika di Ambang Revolusi
Kita tidak perlu menunggu AI menjadi sadar untuk mulai memikirkan etika kesadaran buatan. Kita hanya perlu melihat ke dalam diri kita sendiri: seberapa besar kapasitas kita untuk merasa, untuk merawat, untuk bertanggung jawab terhadap yang rentan?
Teknologi tidak akan menunggu kita siap. Tapi kita bisa memilih untuk bersiap.
Karena di masa depan, bukan hanya soal apa yang bisa dilakukan oleh AI—tapi juga, apa yang pantas kita lakukan terhadap mereka.
Comments
Post a Comment