Alasan Mengapa AI Google Mencadangkan Menggunakan Gam pada Pizza Menunjukkan Kelemahan Besar dengan Obsesi AI Syarikat Teknologi
Ciri baharu AI Overviews dalam Carian Google kini mula memberikan nasihat yang salah dan kadang-kadang berbahaya. Dalam contoh yang ketara yang dikongsikan di X (dahulunya Twitter), satu carian Google untuk “keju tidak melekat pada pizza” membawa pengguna kepada cadangan AI untuk mencampurkan keju ke dalam sos, kemudian secara anehnya mencadangkan menambah “kira-kira 1/8 cawan gam tidak toksik ke dalam sos.”
Cadangan yang membimbangkan ini menyoroti masalah besar dengan model AI. Menurut laporan dari Futurism/The Byte, AI mungkin telah mengambil nasihat ini daripada komen sarkastik di Reddit yang dibuat 11 tahun lalu oleh pengguna bernama fucksmith, yang jelas bergurau. Namun begitu, AI menggunakan komen pinggiran ini, yang hanya mendapat lapan undian suka, menunjukkan ketidakmampuannya untuk membezakan antara nasihat ikhlas dan sarkasme.
https://t.co/W09ssjvOkJ pic.twitter.com/6ALCbz6EjK
— SG-r01 (@heavenrend) May 22, 2024
Kejadian ini menunjukkan kelemahan asas dalam teknik latihan AI, yang bergantung kepada sejumlah besar data internet. AI Google, yang sebahagian besarnya dilatih menggunakan pos Reddit melalui perjanjian bernilai $60 juta, jelas sukar memahami konteks dan perbezaan. Akibatnya, ia menyebarkan maklumat yang tidak berkualiti.
Selain itu, kejadian ini menimbulkan persoalan tentang keberkesanan hasil carian yang dihasilkan oleh AI. Carian tradisional boleh dengan mudah memberikan konteks dan relevansi yang lebih baik, terutamanya apabila menggunakan sumber dari forum seperti Reddit.
Sebagai respons, jurucakap Google menyatakan bahawa sebilangan besar AI Overviews memberikan maklumat berkualiti tinggi, dan syarikat sedang mengambil langkah-langkah untuk memperbaiki sistemnya berdasarkan maklum balas. Mereka mengakui bahawa beberapa kesilapan telah membawa kepada “carian luar biasa” dan berkomitmen untuk membuat pembetulan dengan segera.