Kebingungan tidak menanggapi permintaan komentar.
Dalam sebuah pernyataan yang dikirim melalui email ke WIRED, CEO News Corp Robert Thomson membandingkan Perplexity secara tidak baik dengan OpenAI. “Kami memuji perusahaan-perusahaan yang berprinsip seperti OpenAI, yang memahami bahwa integritas dan kreativitas sangat penting jika kita ingin mewujudkan potensi Kecerdasan Buatan,” kata pernyataan itu. “Perplexity bukan satu-satunya perusahaan AI yang menyalahgunakan kekayaan intelektual dan bukan satu-satunya perusahaan AI yang akan kami kejar dengan penuh semangat dan ketelitian. Kami telah menjelaskan bahwa kami lebih memilih merayu daripada menuntut, namun, demi jurnalis, penulis, dan perusahaan kami, kami harus menantang kleptokrasi konten.”
OpenAI juga menghadapi tuduhan dilusi merek dagang. Di dalam New York Times v.OpenAITimes menuduh bahwa ChatGPT dan Bing Chat akan mengaitkan kutipan yang dibuat-buat dengan Times, dan menuduh OpenAI dan Microsoft merusak reputasinya melalui pengenceran merek dagang. Dalam salah satu contoh yang dikutip dalam gugatan tersebut, Times menuduh bahwa Bing Chat mengklaim bahwa Times menyebut anggur merah (dalam jumlah sedang) sebagai makanan yang “menyehatkan jantung”, padahal kenyataannya tidak; Times berargumen bahwa pemberitaan sebenarnya telah membantah klaim tentang manfaat minum alkohol dalam jumlah sedang bagi kesehatan.
“Menyalin artikel berita untuk mengoperasikan produk AI generatif komersial pengganti adalah melanggar hukum, seperti yang kami jelaskan dalam surat kami kepada Perplexity dan litigasi kami terhadap Microsoft dan OpenAI,” kata direktur komunikasi eksternal NYT Charlie Stadtlander. “Kami memuji gugatan Dow Jones dan New York Post ini, yang merupakan langkah penting untuk memastikan bahwa konten penerbit dilindungi dari penyalahgunaan semacam ini.”
Jika penerbit menang dalam argumen bahwa halusinasi dapat melanggar undang-undang merek dagang, perusahaan AI dapat menghadapi “kesulitan besar” menurut Matthew Sag, seorang profesor hukum dan kecerdasan buatan di Universitas Emory.
“Sangat tidak mungkin menjamin bahwa model bahasa tidak akan berhalusinasi,” kata Sag. Dalam pandangannya, cara model bahasa beroperasi dengan memprediksi kata-kata yang terdengar benar sebagai respons terhadap perintah selalu merupakan jenis halusinasi—terkadang kedengarannya lebih masuk akal dibandingkan yang lain.
“Kami hanya menyebutnya halusinasi jika tidak sesuai dengan kenyataan kami, tapi prosesnya tetap sama, baik kami suka atau tidak suka hasilnya.”