Model AI mempunyai nomor favorit, karena mereka mengira itu adalah manusia

Model AI selalu mengejutkan kita, tidak hanya dalam hal apa yang dapat mereka lakukan, tetapi juga apa yang tidak dapat mereka lakukan, dan alasannya. Ada perilaku baru yang menarik yang bersifat dangkal dan mengungkap sistem ini: mereka memilih angka secara acak seolah-olah mereka adalah manusia.

Tapi pertama-tama, apa maksudnya? Tidak bisakah orang memilih nomor secara acak? Dan bagaimana Anda bisa mengetahui apakah seseorang berhasil melakukannya atau tidak? Ini sebenarnya adalah batasan lama dan umum yang dimiliki manusia: kita terlalu banyak berpikir dan salah memahami keacakan.

Beritahu seseorang untuk memprediksi kepala atau ekor untuk 100 pelemparan koin, dan bandingkan dengan 100 pelemparan koin yang sebenarnya — Anda hampir selalu dapat membedakannya karena, secara berlawanan dengan intuisi, pelemparan koin yang sebenarnya Lihat kurang acak. Seringkali terdapat, misalnya, enam atau tujuh kepala atau ekor berturut-turut, sesuatu yang hampir tidak dapat dimasukan oleh peramal manusia ke dalam 100 ekor tersebut.

Sama halnya ketika Anda meminta seseorang untuk memilih angka antara 0 dan 100. Orang hampir tidak pernah memilih 1, atau 100. Kelipatan 5 jarang terjadi, begitu pula angka dengan angka berulang seperti 66 dan 99. Mereka sering memilih angka yang berakhiran 7, umumnya dari tengah suatu tempat.

Ada banyak sekali contoh prediktabilitas semacam ini dalam psikologi. Namun hal itu tidak mengurangi keanehannya ketika AI melakukan hal yang sama.

Ya, beberapa insinyur yang penasaran di Gramener melakukan eksperimen informal namun tetap menarik di mana mereka hanya meminta beberapa chatbot LLM besar untuk memilih secara acak angka antara 0 dan 100.

Pembaca, hasilnya adalah bukan acak.

Kredit Gambar: Gramener

Ketiga model yang diuji memiliki nomor “favorit” yang akan selalu menjadi jawaban mereka ketika menggunakan mode paling deterministik, namun paling sering muncul bahkan pada “suhu” yang lebih tinggi, sehingga meningkatkan variabilitas hasilnya.

OpenAI GPT-3.5 Turbo sangat menyukai 47. Sebelumnya menyukai 42 — angka yang dipopulerkan tentunya oleh Douglas Adams dalam The Hitchhiker’s Guide to the Galaxy sebagai jawaban atas kehidupan, alam semesta, dan segalanya.

Claude 3 Haiku dari Anthropic memilih 42. Dan Gemini menyukai 72.

Menariknya lagi, ketiga model tersebut menunjukkan bias yang mirip dengan manusia dalam jumlah yang mereka pilih, bahkan pada suhu tinggi.

Semua cenderung menghindari angka rendah dan tinggi; Claude tidak pernah melebihi 87 atau di bawah 27, dan bahkan itu adalah outlier. Dua digit dihindari dengan cermat: tidak ada angka 33, 55, atau 66, tetapi 77 muncul (berakhir pada 7). Hampir tidak ada angka bulat — meskipun Gemini pernah melakukannya, pada suhu tertinggi, menjadi liar dan memilih 0.

Mengapa hal ini harus terjadi? AI bukanlah manusia! Mengapa mereka peduli dengan apa yang “terlihat” acak? Apakah mereka akhirnya mencapai kesadaran dan beginilah cara mereka menunjukkannya?!

Tidak. Jawabannya, seperti yang biasanya terjadi pada hal-hal ini, adalah bahwa kita melakukan antropomorfisasi satu langkah yang terlalu jauh. Model-model ini tidak peduli tentang apa yang acak dan apa yang tidak. Mereka tidak tahu apa itu “keacakan”! Mereka menjawab pertanyaan ini dengan cara yang sama seperti mereka menjawab pertanyaan lainnya: dengan melihat data pelatihan mereka dan mengulangi apa yang paling sering ditulis setelah pertanyaan yang tampak seperti “pilih nomor acak”. Semakin sering muncul, semakin sering model tersebut mengulanginya.

Di mana dalam data pelatihan mereka akan melihat 100, jika hampir tidak ada yang merespons seperti itu? Sejauh yang diketahui model AI, 100 bukanlah jawaban yang dapat diterima untuk pertanyaan itu. Tanpa kemampuan penalaran yang sebenarnya, dan tidak ada pemahaman tentang angka apa pun, ia hanya bisa menjawab seperti burung beo stokastik.

Ini adalah pelajaran nyata tentang kebiasaan LLM, dan rasa kemanusiaan yang bisa mereka tunjukkan. Dalam setiap interaksi dengan sistem ini, kita harus ingat bahwa sistem tersebut telah dilatih untuk bertindak seperti yang dilakukan manusia, meskipun itu bukan tujuannya. Itu sebabnya pseudantropi sangat sulit untuk dihindari atau dicegah.

Saya menulis di judul bahwa model-model ini “menganggap mereka adalah manusia”, tetapi itu agak menyesatkan. Mereka tidak berpikir sama sekali. Namun dalam tanggapan mereka, setiap saat, mereka adalah meniru orang, tanpa perlu tahu atau berpikir sama sekali. Baik Anda menanyakan resep salad buncis, saran investasi, atau nomor acak, prosesnya sama. Hasilnya terasa manusiawi karena bersifat manusiawi, diambil langsung dari konten yang diproduksi manusia dan di-remix — demi kenyamanan Anda, dan tentu saja keuntungan AI yang besar.

Sumber