Had limit soalan ChatGPT Bing daripada Microsoft menimbulkan lebih banyak masalah daripada jawapan

gambar3.jpg

Bot sembang AI Bing masih belum dilancarkan kepada orang awam; walau bagaimanapun, terdapat pengguna terpilih yang telah diberikan akses awal, dan mereka tidak segan untuk berkongsi pengalaman mereka.

Banyak pengguna-pengguna ini mempunyai misi untuk menguji kebolehan chatbot dan mendedahkan kelemahannya.

Dari menyingkapkan nama sandi rahasia yang digunakan secara internal oleh para pengembang, hingga menyatakan cintanya pada seorang penulis New York Times dan memintanya meninggalkan istrinya, hingga berharap bisa hidup, tak diragukan lagi bahwa chatbot tersebut bertindak di luar batas. Oleh karena itu, Microsoft memutuskan untuk mengekang chatbot tersebut. Sejak Jumat lalu, chatbot tersebut telah dibatasi lima pertanyaan per sesi dan 50 percakapan per hari.

Juga: Bagaimana untuk mengelakkan dalam senarai tunggu Bing yang baru dan mendapatkan akses lebih awal

"Sesi perbualan yang sangat panjang boleh mengelirukan model perbualan asas pada Bing baharu," kata Microsoft dalam catatan blog. "Data kami menunjukkan bahawa majoriti pengguna dapat menemui jawapan yang mereka cari dalam 5 pusingan."

Walau bagaimanapun, penyelesaian ini tidak menangani sebarang isu yang mendasar tentang cara chatbot membentuk respons, atau cara model mereka dilatih.

Sebaliknya, ia hanya membuat perbualan dengan chatbot menjadi sangat sukar.

Juga: Chatbot AI Bing menyelesaikan masalah utama saya dengan ChatGPT

Sebagai contoh ujian, saya cuba mendapatkan bantuan daripada chatbot untuk menulis e-mel. Pada waktu saya selesai membuat semua perubahan yang saya perlukan, saya tidak dapat mengakses e-mel itu - chatbot Bing telah membuang saya keluar.

gambar4.jpg

Sangat mudah membayangkan bagaimana seseorang yang berusaha menyempurnakan kod mereka atau menulis esei yang sempurna dapat memerlukan lebih dari lima pancingan untuk mendapatkan hasil yang diinginkan. Dengan memotong percakapan secara singkat, chatbot menjadi tidak berguna untuk sebagian besar pancingan teknikal (seperti menyusun kod atau teks dalam format tertentu), yang merupakan klaim ChatGPT terkenal.

Juga: Saya menggunakan ChatGPT untuk membantu saya memperbaiki kod lebih cepat, tetapi dengan apa kosnya?

Batasan baru ini juga mengurangkan keseluruhan daya tarikan chatbot dengan kemampuan percakapan yang serupa manusia. Untuk memulakan perbualan, saya hanya bertanya dengan ringkas, "Hi! Apa khabar hari ini?" namun saya diberikan jawapan singkat, "Maaf, saya lebih suka tidak meneruskan perbualan ini. Saya masih belajar jadi saya hargai kesabaran dan pengertian anda.🙏"

gambar2.jpg

Respons ini memberikan kontras yang jelas dari respons ChatGPT, yang mengakui bahwa ia tidak mampu merasakan perasaan, tetapi tetap menjawab pertanyaan Anda dengan baik dan bertanya bagaimana cara membantu Anda lebih lanjut.

gambar1.jpg

Dalam usaha untuk mengurangkan kontroversi, Microsoft telah menghilangkan ciri-ciri yang menjadikan chatbot berguna dan unik dan meninggalkan kami dengan versi demo. Walaupun agak kacau, versi asalnya lebih berguna dan menyeronokkan daripada iterasi Bing yang lebih sederhana pada masa kini.

Artikel Berkaitan

Lihat Lebih >>
  • Adakah Chat GPT Plagiat?

    Adakah Chat GPT bebas plagiarism? Ketahui lebih lanjut mengenai isu plagiat potensi Chat GPT dan pengecam plagiat terbaik untuk kandungan terhasil daripada kecerdasan buatan.

  • 11 Kekurangan Kandungan ChatGPT

    Penyelidik menemui kelemahan mengejutkan dalam kandungan ChatGPT. Berikut adalah cara untuk mengesan kelemahan tersebut.

  • Had had perkataan ChatGPT

    Adakah had had perkataan di ChatGPT? Sesetengah orang menganggap begitu tetapi yang lain tidak pasti. Satu perkara yang kita tahu ialah terdapat cara mudah untuk mengatasi masalah tersebut.