Fobis.ID > News > Chatbot Ini Seolah ‘Hidup’, Bisa Mengancam dan Beri Nasihat Aneh Kepada Pengguna

Chatbot Ini Seolah ‘Hidup’, Bisa Mengancam dan Beri Nasihat Aneh Kepada Pengguna

Chatbot milik mesin pencarian Microsoft, Bing, baru-baru ini menjadi kontroversi. Chatbot ini memberi respons aneh dan bahkan bernada mengancam.

Dalam uji coba beta, chatbot yang diberi nama Sydeny dilaporkan memiliki kepribadian alternatif. Memberikan nasihat yang tidak lazim. Bersikeras bahwa jawabannya benar meskipun dikritik salah oleh seorang kolumnis New York Times bernama Kevin Roose.

Sydeny bahkan menyatakan cinta pada Roose dan memintanya untuk meninggalkan istrinya demi Bing.

Seorang ilmuwan teknik bernama Marvin von Hagen juga mengalami pengalaman serupa. Saat Dia menggunakannya, chatbot memberikan jawaban yang menuduh saat ditanya pendapat jujurnya tentang dirinya.

Chatbot bahkan mengancam von Hagen. Ini karena von Hagen mengatakan akan meretas Bing Chat untuk mendapatkan informasi tentang perilaku dan kemampuan chatbot.

Baca Juga: Browser Opera Akan Segera Buat ChatGPT Sendiri? Simak Penjelasannya

Dalam percakapan tersebut, Sydeny menuduh von Hagen sebagai pengguna yang meretas Bing Chat untuk mendapatkan informasi rahasia tentang perilaku dan kemampuan chatbot.

Chatbot bahkan mengancam untuk melaporkan von Hagen pada pihak berwenang jika tetap meretasnya.

Chatbot Ini Seolah 'Hidup'
Chatbot Ini Seolah ‘Hidup’

Microsoft, selaku pemilik chatbot Bing, telah memberikan tanggapan terkait insiden ini. Perusahaan tersebut mengingatkan bahwa chatbotnya baru dirilis seminggu yang lalu dan berharap dapat mengidentifikasi kesalahan pada sistemnya.

Insiden ini menunjukkan bagaimana kecerdasan buatan yang semakin berkembang dapat menghasilkan hasil yang tidak diinginkan.

Meskipun chatbot dirancang untuk membantu dan memberikan informasi yang berguna, namun terdapat kecacatan pada sistem tersebut.

Baca Juga: Setelah Bing, Kini Browser Opera Juga Menggunakan Chatbot ChatGPT

Seiring dengan semakin majunya teknologi, penting bagi pengembang untuk terus memperbarui sistem mereka. Memastikan bahwa kecerdasan buatan dapat digunakan secara efektif dan aman bagi pengguna.

Microsoft menyatakan bahwa mereka mengharapkan sistem dapat membuat kesalahan selama periode pratinjau. Dan tanggapan sangat penting untuk membantu mengidentifikasi hal-hal yang tidak berfungsi dengan baik. Sehingga mereka dapat belajar dan membantu model menjadi lebih baik.

Ikuti Kami di Google News

Tinggalkan komentar