Organisasi advokasi Austria, Noyb (None of Your Business), kembali menggugat OpenAI. Gugatan ini terkait kesalahan fatal ChatGPT, chatbot AI besutan OpenAI, yang menuduh seorang pria Norwegia sebagai pembunuh. Tuduhan tersebut sepenuhnya tidak berdasar dan telah merusak reputasi pria tersebut.
Dalam insiden ini, ChatGPT memberikan respons yang sangat keliru ketika ditanya tentang pria tersebut. Chatbot tersebut secara detail—dan salah—mengatakan pria itu dihukum 21 tahun penjara karena membunuh dua anak dan mencoba membunuh anak ketiga. Ironisnya, ChatGPT memberikan informasi akurat mengenai detail pribadi lainnya seperti jumlah anak, jenis kelamin, dan kota tempat tinggal pria tersebut.
Ketidakakuratan informasi yang diberikan ChatGPT ini dikategorikan sebagai “halusinasi”—istilah yang sering digunakan untuk menggambarkan kesalahan faktual yang dihasilkan oleh model AI. Noyb menganggap hal ini sebagai pelanggaran serius, khususnya karena kesalahan tersebut dipadukan dengan data pribadi yang akurat, menciptakan kredibilitas palsu terhadap tuduhan pembunuhan tersebut. Akibatnya, reputasi pria tersebut rusak parah.
Noyb berpendapat OpenAI telah melanggar Peraturan Perlindungan Data Umum (GDPR) Uni Eropa. GDPR mensyaratkan data pribadi harus akurat, dan pengguna berhak untuk memperbaikinya jika terdapat kesalahan. Peringatan singkat di ChatGPT yang menyatakan chatbot tersebut dapat membuat kesalahan, menurut Noyb, tidak cukup untuk melindungi OpenAI dari tanggung jawab hukum atas kerusakan yang ditimbulkan.
Alasan Gugatan Noyb terhadap OpenAI
Gugatan Noyb ini bukan tanpa alasan. Organisasi ini memiliki rekam jejak yang kuat dalam mengajukan gugatan terkait perlindungan data dan privasi. Mereka berfokus pada akuntabilitas perusahaan teknologi besar dalam menangani data pengguna. Dalam kasus ini, Noyb menekankan betapa berbahayanya informasi palsu yang dihasilkan oleh AI, terutama ketika dikombinasikan dengan data pribadi yang akurat, dapat merusak reputasi seseorang secara signifikan.
Pengacara perlindungan data Noyb, Joakim Söderberg, menyatakan bahwa menambahkan disclaimer singkat di ChatGPT bahwa chatbot tersebut dapat membuat kesalahan tidak cukup. Ia berpendapat OpenAI harus bertanggung jawab atas informasi palsu yang dihasilkan dan dampaknya terhadap individu yang dirugikan. Hal ini penting untuk memastikan perlindungan data dan mencegah kejadian serupa di masa depan.
Dampak Kasus terhadap Pengembangan AI
Kasus ini memiliki implikasi yang luas terhadap pengembangan dan penggunaan AI, khususnya chatbot. Hal ini menyoroti pentingnya akurasi dan verifikasi fakta dalam sistem AI. Pengembang AI perlu mempertimbangkan secara serius bagaimana menangani potensi kesalahan dan melindungi pengguna dari informasi yang menyesatkan dan berbahaya.
Perkembangan AI yang pesat menuntut adanya regulasi dan pedoman yang jelas untuk memastikan penggunaan teknologi ini secara bertanggung jawab. Kasus ini bisa menjadi preseden hukum penting dalam menentukan tanggung jawab pengembang AI atas informasi palsu yang dihasilkan oleh sistem mereka. Hal ini mendorong pengembangan sistem AI yang lebih bertanggung jawab dan akurasi informasi yang dihasilkan.
Kesimpulan
Gugatan Noyb terhadap OpenAI menunjukkan perlunya standar yang lebih tinggi dalam pengembangan dan penggunaan AI. Kejadian ini menjadi peringatan bagi pengembang AI untuk memprioritaskan akurasi informasi dan perlindungan data pengguna. Perlindungan reputasi individu dari informasi palsu yang dihasilkan AI harus menjadi fokus utama dalam pengembangan teknologi ini ke depannya. Perlu adanya kolaborasi antara pengembang AI, regulator, dan pakar etika untuk menciptakan kerangka kerja yang lebih komprehensif dalam mengelola risiko terkait dengan AI.