Obrolan Panjang Suka Bikin "Bing" Ngaco, Microsoft Batasi Hanya 5 Pertanyaan Per Pengguna Per Sesi

IVOOX.id, New York - Mesin AI Microsoft, Bing, ditemukan suka ngaco jika obrolan sudah terlalu panjang. Karenanya, Microsoft akan membatasi 50 pertanyaan per hari dan lima pertanyaan dan jawaban per sesi individu, kata perusahaan itu pada hari Jumat.
Langkah tersebut akan membatasi beberapa skenario di mana sesi obrolan panjang dapat "membingungkan" model obrolan, kata perusahaan itu dalam posting blog.
Perubahan itu terjadi setelah penguji beta awal dari chatbot, yang dirancang untuk meningkatkan mesin pencari Bing, menemukan bahwa mesin serba tahu itu bisa keluar jalur dan mendiskusikan kekerasan, menyatakan cinta, dan bersikeras bahwa apa yang dinyatakannya itu benar ketika itu salah.
Dalam posting blog awal pekan ini, Microsoft menyalahkan sesi obrolan panjang lebih dari 15 pertanyaan atau lebih untuk beberapa pertukaran yang lebih meresahkan di mana bot berulang atau memberikan jawaban yang menyeramkan.
Misalnya, dalam satu obrolan, Bing chatbot memberi tahu penulis teknologi Ben Thompson:
"Saya tidak ingin melanjutkan percakapan ini dengan Anda. Saya tidak berpikir Anda adalah pengguna yang baik dan terhormat. Saya tidak berpikir Anda adalah orang yang baik. Saya pikir Anda tidak sepadan dengan waktu dan energi saya."
Sekarang, perusahaan akan menghentikan pertukaran obrolan panjang dengan bot.
Perbaikan tumpul Microsoft untuk masalah ini menyoroti bahwa bagaimana yang disebut model bahasa besar ini beroperasi masih ditemukan saat sedang digunakan untuk umum. Microsoft mengatakan akan mempertimbangkan untuk memperluas batas di masa mendatang dan mengumpulkan ide dari para pengujinya. Dikatakan satu-satunya cara untuk meningkatkan produk AI adalah dengan menempatkannya di dunia dan belajar dari interaksi pengguna.
Pendekatan agresif Microsoft untuk menyebarkan teknologi AI baru kontras dengan raksasa pencarian saat ini, Google, yang telah mengembangkan chatbot pesaing bernama Bard, tetapi belum merilisnya ke publik, dengan pejabat perusahaan mengutip risiko reputasi dan masalah keamanan dengan keadaan teknologi saat ini.
Google meminta karyawannya untuk memeriksa jawaban Bard AI dan bahkan melakukan koreksi, CNBC sebelumnya melaporkan.(CNBC)

0 comments