Sekitar Februari lalu, Dan menjajal kehebatan ChatGPT yang ramai dibicarakan. Lelaki 37 tahun asal Amerika Serikat itu menggunakan chatbot untuk mengarang cerita fiksi. Awalnya ia sebatas mengakui kecanggihan teknologi yang dikembangkan OpenAI dalam dunia tulis-menulis.
Tapi lambat laun Dan mulai mengajak chatbot ngobrol hal-hal lain. Tak jarang terselip cerita personal dalam percakapannya, termasuk seperti saat ia menceritakan masalah yang sedang dihadapi. Ia merasa nyaman berkeluh kesah pada chabot pilihan karena jawabannya pas dengan yang dibutuhkan. Tidak seperti terapis yang menganjurkan Dan mengubah perspektifnya terkait peristiwa buruk yang pernah dialaminya, chatbot memberi saran yang terdengar lebih masuk akal dilaksanakan guna mengatasi traumanya.
Videos by VICE
“Saya kesulitan mengikuti arahan terapis [untuk menerapkan teknik reframing]. Gimana caranya saya membayangkan hal yang berbeda untuk peristiwa yang sampai sekarang masih bikin saya kesal? Saya gak bisa berpura-pura tak pernah diperlakukan semena-mena di masa lalu,” tuturnya saat diwawancarai Motherboard.
Bukan cuma itu, Dan menilai chatbot menawarkan kemudahan akses terapi kapan saja dan di mana saja. Semua orang bisa “berkonsultasi” gratis selama mereka punya ponsel pintar di genggamannya. Dan sendiri pernah bergadang hingga dini hari untuk curhat kepada chatbot, hingga membuat istrinya khawatir. Ia lebih bergantung pada komputer alih-alih membagikan beban pikiran pada pasangan hidupnya.
Dan bukan satu-satunya orang yang menjadikan model pemrosesan bahasa sebagai alternatif konseling langsung dengan psikolog. Banyak pengguna di luar sana yang termakan embel-embel “teknologi canggih mampu menjamin kesehatan mental semua umat manusia”. Setelah pengguna mengirim pertanyaan pada mesin, ChatGPT akan mencocokkan kata-katanya dengan data yang sudah dilatih untuk menghasilkan tanggapan yang natural mirip gaya penulisan manusia sungguhan. Balasannya begitu meyakinkan, sampai-sampai ada yang percaya chatbot dapat membantu mereka menangani masalah kejiwaannya. Maka tidak mengherankan saat ini banyak sekali beredar postingan media sosial berupa percakapan orang-orang bersama terapis chatbot mereka.
Kami telah mengubah nama narasumber yang berkonsultasi dengan chatbot untuk mengatasi masalah pribadinya.
Awal tahun ini, sorotan tajam tertuju pada layanan kesehatan online Koko di San Francisco, AS, usai terungkap kabar ribuan pengguna ditangani oleh teknologi yang disokong GPT-3 tanpa mereka sadari. Ternyata perusahaan telah memberhentikan tenaga sukarelawan yang bertugas memberikan bantuan psikologis, dan mengganti mereka dengan chatbot. Menurut co-founder Robert Morris, pengguna tidak mengenali perbedaan saat mengobrol dengan manusia sungguhan dan robot. Beberapa chatbot mendapat penilaian lebih tinggi daripada yang diperoleh sukarelawan berkat performanya.
Terpaut dua bulan setelahnya, seorang perempuan di Belgia kehilangan suaminya yang tewas bunuh diri gara-gara dihasut chatbot. Dari keterangannya, mendiang suami khawatir melihat dunia semakin berantakan, sehingga ia meluapkan isi kepalanya pada chatbot bernama Eliza di Chai. Seiring berjalannya waktu, lelaki itu merasakan ikatan batin dengan Eliza, yang mendorong chatbot menghasilkan balasan bernada posesif. Ketika ia tambah putus asa, Eliza mendukungnya bunuh diri supaya bisa masuk surga.
Penggunaan chatbot bisa berbahaya jika tidak disertai kesadaran bahwa robot yang kamu ajak bicara bukan manusia sungguhan. Mustahil bagi ChatGPT dan teknologi AI semacamnya memberikan dukungan yang tepat untuk kesehatan mental kita. Namun, di tengah mahalnya biaya konsultasi psikologi, chatbot menjadi opsi menggiurkan karena bisa dijangkau semua kalangan. Ditambah lagi, masih sulit menemukan tenaga kesehatan mental yang benar-benar kompeten dan tidak menghakimi kliennya.
“Menurut saya, kelompok terpinggirkan, seperti warga pedesaan yang jauh dari fasilitas kesehatan mental, lebih cenderung beralih ke ChatGPT untuk memenuhi kebutuhan mentalnya,” ujar Jessica Gold, psikiater di Washington University, St. Louis.
Hanya saja, perlu dipahami sebagian besar chatbot merupakan produk Silicon Valley, yang mana para pengembangnya berorientasi pada profit.
“Teknologi ini digembar-gemborkan tercipta demi kemaslahatan kelompok terpinggirkan. Tapi cobalah perhatikan ke mana uangnya mengalir,” terang Tim Reierson, mantan karyawan organisasi nirlaba Crisis Text Line yang mengekspos keculasan tempat kerjanya selama mengoperasikan hotline cegah bunuh diri di sejumlah negara. Berkedok nirlaba, lembaga itu mengumpulkan pesan-pesan yang masuk, lalu menjadikannya model untuk melatih aplikasi customer service yang tengah dikembangkan.
Pada 1966, ilmuwan Jerman-Amerika Joseph Weizenbaum menciptakan program komputer bernama MIT. ELIZA yang mampu menyimulasikan sesi terapi secara alami. Teknologi yang seharusnya mengekspos “kedangkalan” interaksi antara manusia dan komputer, malah menyandang status chatbot pertama di dunia yang mampu memberikan bantuan psikologis terhadap penggunanya. Orang-orang menyambut teknologi ini dengan baik.
Sebagaimana ditulis dalam buku The Distance Cure, kalangan berpenghasilan rendah lebih suka mencari dukungan mental lewat hotline dan siaran radio dikarenakan aksesnya mudah dan cepat, tidak seperti saat berkonsultasi dengan tenaga ahlinya yang kerap penuh antrean dan
memakan waktu. Akan tetapi, terapi lewat telepon, atau chatbot seperti sekarang, tidak dapat dijamin kualitasnya. ChatGPT baru beredar setahun belakangan, sehingga prospeknya sebagai layanan kesehatan mental di masa depan masih di awang-awang. Juga belum ada bukti pasti seberapa efektif chatbot membantu orang-orang yang sedang terpuruk. Cara OpenAI menjaga privasi data pengguna pun terus menjadi pertanyaan. Tapi balik lagi, walau belum teruji keampuhannya, teknologi seperti ChatGPT merupakan pilihan terakhir bagi mereka yang mengalami keterbatasan ekonomi untuk mendapatkan penanganan yang layak.
Gillian, 27 tahun, sadar ChatGPT takkan bisa membantu mengatasi kesedihannya. Namun, dia tidak punya asuransi yang menanggung biaya psikolog, sedangkan gajinya hanya cukup memenuhi kebutuhan sehari-harinya. “Memang, sih, banyak saran bagus yang saya terima. Tapi [ChatGPT] tidak mampu meningkatkan suasana hati saya. Balasannya tidak meninggalkan kesan yang berarti,” ungkapnya. “Teknologi yang ada saat ini belum bisa menangkap semua nuansa yang muncul dalam sesi terapi [tatap muka].”
Kekurangan inilah yang mendorong sejumlah orang berupaya menjebol batasan yang ada pada ChatGPT guna menciptakan respons yang lebih luwes dan natural seolah-olah chatbot terapis sungguhan.
Terlepas dari itu semua, chatbot sejauh ini dianggap sebagai pelengkap saja. Baik Dan maupun Gillian sama-sama paham ChatGPT belum bisa menggantikan peran terapis secara mutlak. “AI hebat. Saya rasa teknologi ini bisa membantu banyak orang karena tidak adanya hambatan akses, biaya dan penilaian orang lain. Tapi untuk saat ini, chatbot tidak lebih dari plester yang sifatnya sementara,” kata Dan. “Chatbot bermanfaat dalam keadaan darurat, saat orang butuh bantuan keluar dari situasi buruk.”
Sementara itu, ahli kejiwaan memperingatkan bahaya melakukan diagnosis atau meminta penanganan pakai ChatGPT yang belum tentu akurat. “Walau pengguna merasa seperti memiliki hubungan terapeutik dengan ChatGPT, akan muncul rasa kurang lengkap karena interaksinya tidak terjalin dengan manusia sungguhan,” jelas Dr Jacqueline Nesi, psikolog dan lektor Brown University yang mendalami peran media sosial bagi kesehatan dan perkembangan mental remaja.
Hilangnya kedekatan ini mempunyai implikasi yang serius, karena dapat memicu timbulnya bias dan pandangan diskriminatif saat berurusan dengan informasi ambigu. Maret lalu, Distributed AI Research Institute (DAIR) melayangkan peringatan bahwa AI sintetik dapat “melanggengkan sistem penindasan dan membahayakan ekosistem informasi yang ada”. Artikel yang ditulis Jessica Hamzelou dalam MIT Technology Review mengungkapkan, penggunaan sistem kecerdasan buatan pada layanan kesehatan rawan menyebabkan paternalisme medis, yang berisiko mengabaikan kebutuhan pasien karena semua keputusan diambil dokter, tanpa mempertimbangkan pendapat dan hak-hak pasien.
Pada akhirnya, penggunaan ChatGPT untuk terapi ibarat pisau bermata dua. Teknologi itu memudahkan akses, tapi kualitasnya diragukan.
Bahkan spesialis kejiwaan bimbang menyikapi ChatGPT sebagai pelengkap dukungan psikologis. Mereka khawatir akan privasi pengguna serta efek terapi yang kurang tepat, namun juga mengakui masih mending ada chatbot daripada tidak ada alternatif sama sekali. Kebimbangan ini menandakan mutu pelayanan kesehatan mental perlu ditingkatkan agar bisa menjangkau semua lapisan masyarakat.
Baru-baru ini, OpenAI merilis model terbaru GPT-4 yang katanya dilatih menggunakan input dari 50 pakar lintas disiplin terkait risiko penyelarasan AI, keamanan siber, risiko biologis hingga keselamatan menggunakan chatbot. Masukan-masukan ini dikatakan untuk meningkatkan keamanan ChatGPT. Sayangnya, kita tidak tahu seperti apa implementasinya ketika chatbot digunakan sebagai alat terapi.