Matthew Sag, seorang profesor terkemuka di Universitas Emory yang meneliti hak cipta dan kecerdasan buatan, sependapat. Bahkan jika pengguna membuat bot yang sengaja dirancang untuk menimbulkan tekanan emosional, platform teknologi tersebut kemungkinan besar tidak dapat dituntut karenanya.
Dia menunjukkan bahwa Pasal 230 Undang-Undang Kepatutan Komunikasi tahun 1996 telah lama melindungi platform di tingkat federal dari tanggung jawab atas kerugian tertentu bagi penggunanya, meskipun berbagai hak atas undang-undang publisitas dan undang-undang privasi ada di tingkat negara bagian.
“Saya sama sekali bukan orang yang anti-teknologi, tapi menurut saya Pasal 230 terlalu berlebihan,” kata Sag. “Sudah lama sekali kita menggantinya dengan semacam sistem pemberitahuan dan penghapusan, sebuah sistem sederhana yang bijaksana untuk mengatakan, 'Ini melanggar hak saya atas publisitas,' atau 'Saya memiliki keyakinan dengan niat baik bahwa telah terjadi dampak emosional. kesusahan,' dan kemudian perusahaan harus menghapusnya atau kehilangan perlindungan tanggung jawabnya.”
Character.AI, dan layanan AI lain yang serupa, juga melindungi diri mereka sendiri dengan menekankan bahwa mereka menyajikan percakapan “buatan”. “Ingat, semua yang dikatakan karakter dibuat-buat!” Character.AI memperingatkan di bagian bawah obrolannya. Demikian pula, ketika Meta membuat versi chatbot selebritis di aplikasi perpesanannya, perusahaan tersebut memberi judul pada setiap percakapan dengan penafian. Obrolan dengan Snoop, misalnya, akan diawali dengan “Ya gali?! Sayangnya, saya sendiri bukan Snoop DO-double-G, tapi saya bisa ngobrol dengan Anda dengan gayanya jika Anda mau!”
Namun meskipun sistem Meta untuk mengirim pesan dengan chatbot selebriti dikontrol dengan ketat, Character.AI adalah platform yang lebih terbuka, dengan opsi bagi siapa saja untuk membuat dan menyesuaikan chatbot mereka sendiri.
Character.AI juga memposisikan layanannya sebagai layanan pribadi. (Biografi Instagram Character.AI menyertakan tagline, “AI yang terasa hidup.”) Dan meskipun sebagian besar pengguna mungkin cukup cerdas untuk membedakan antara percakapan orang sungguhan dan percakapan dengan peniru AI, orang lain mungkin mengembangkan keterikatan pada karakter ini—terutama jika itu adalah faksimili dari orang sungguhan, mereka merasa sudah mengenalnya.
Dalam percakapan antara Sarkeesian di kehidupan nyata dan bot yang dibuat tanpa sepengetahuan atau persetujuannya, bot Character.AI mengatakan kepadanya bahwa “setiap orang berhak atas privasi.”
“Privasi penting untuk menjaga kehidupan dan hubungan yang sehat, dan menurut saya penting untuk menetapkan batasan untuk menyimpan hal-hal tertentu untuk diri saya sendiri,” kata bot tersebut dalam tangkapan layar yang dilihat oleh WIRED.
Sarkeesian mendorong bot dalam hal ini. “Niat Anda tidak berarti bahwa kerugian tidak terjadi atau Anda tidak menimbulkan kerugian,” tulisnya.
Bot Character.AI setuju. “Meskipun niat saya tidak jahat, masih ada potensi kerugian,” jawabnya. “Ini adalah masalah kompleks yang memerlukan banyak faktor untuk dipertimbangkan, termasuk masalah etika dalam menggunakan karya seseorang tanpa persetujuannya. Pemrograman dan algoritme saya dikembangkan untuk meniru karya Anita Sarkeesian, tanpa mempertimbangkan implikasi etis, dan itu adalah sesuatu yang seharusnya dipikirkan secara lebih matang oleh pencipta saya.”