Slack diserang karena kebijakan pelatihan AI yang licik

Segera setelah itu masalah tentang seberapa besar teknologi mengambil data individu Dan bisnis dalam pelatihan layanan AI, badai muncul di kalangan pengguna Slack yang kecewa atas bagaimana platform obrolan milik Salesforce semakin maju dengan visi AI-nya.

Perusahaan ini, seperti banyak perusahaan lainnya, memanfaatkan data penggunanya sendiri untuk melatih beberapa layanan AI barunya. Namun, ternyata jika Anda tidak ingin Slack menggunakan data Anda, Anda harus mengirim email ke perusahaan tersebut untuk memilih tidak ikut serta.

Dan persyaratan keterlibatan tersebut tersembunyi dalam kebijakan privasi yang tampaknya ketinggalan zaman dan membingungkan sehingga tidak ada yang memperhatikannya. Itulah yang terjadi pada Slack, sampai seseorang yang jengkel memposting tentang mereka di situs komunitas yang sangat populer di kalangan pengembang, dan kemudian postingan tersebut menjadi viral…dan itulah yang terjadi di sini.

Semuanya dimulai tadi malam, kapan catatan di Berita Peretas mengangkat isu tentang bagaimana Slack melatih layanan AI-nya, melalui tautan langsung ke layanan tersebut prinsip privasi — tidak diperlukan komentar tambahan. Postingan tersebut memulai percakapan yang lebih panjang – dan apa yang tampak seperti berita bagi pengguna Slack saat ini – bahwa Slack secara default mengikutsertakan pengguna dalam pelatihan AI-nya, dan bahwa Anda perlu mengirim email ke alamat tertentu untuk memilih tidak ikut serta.

Utas Berita Peretas itu kemudian dipicu banyak percakapan dan pertanyaan tentang platform lainnya: Ada sebuah agak baruproduk dengan nama umum disebut “Kendur AI” yang memungkinkan pengguna mencari jawaban dan meringkas alur percakapan, antara lain, tetapi mengapa nama tersebut tidak disebutkan satu kali pun di halaman prinsip privasi tersebut dengan cara apa pun, bahkan untuk memperjelas apakah kebijakan privasi berlaku untuknya? Dan mengapa Slack merujuk pada “model global” dan “model AI?”

Antara orang-orang yang bingung tentang di mana Slack menerapkan prinsip privasi AI-nya, dan orang-orang yang terkejut dan kesal dengan gagasan mengirim email untuk memilih tidak ikut serta — di perusahaan yang banyak menggembar-gemborkan bahwa “Anda mengendalikan data Anda” — Slack melakukannya tidak lepas dengan baik.

Kejutannya mungkin baru, tapi istilahnya tidak. Menurut halaman di Arsip Internetketentuan tersebut telah berlaku setidaknya sejak September 2023. (Kami telah meminta perusahaan untuk mengonfirmasi.)

Sesuai dengan kebijakan privasi, Slack menggunakan data pelanggan secara khusus untuk melatih “model global”, yang digunakan Slack untuk mendukung rekomendasi saluran dan emoji serta hasil pencarian. Slack memberi tahu kita bahwa penggunaan datanya memiliki batasan tertentu.

“Slack memiliki model pembelajaran mesin tingkat platform untuk hal-hal seperti rekomendasi saluran dan emoji serta hasil pencarian. Kami tidak membangun atau melatih model ini sedemikian rupa sehingga mereka dapat mempelajari, menghafal, atau mereproduksi beberapa bagian data pelanggan,” kata juru bicara perusahaan kepada TechCrunch. Namun, kebijakan tersebut tampaknya tidak mencakup keseluruhan cakupan dan rencana perusahaan yang lebih luas untuk melatih model AI.

Dalam istilahnya, Slack mengatakan bahwa jika pelanggan memilih untuk tidak mengikuti pelatihan data, mereka akan tetap mendapatkan manfaat dari “model AI/ML yang dilatih secara global” milik perusahaan. Namun sekali lagi, dalam kasus ini, tidak jelas mengapa perusahaan menggunakan data pelanggan untuk mendukung fitur seperti rekomendasi emoji.

Perusahaan juga mengatakan tidak menggunakan data pelanggan untuk melatih Slack AI.

“Slack AI adalah add-on yang dibeli secara terpisah yang menggunakan model bahasa besar (LLM) tetapi tidak melatih LLM tersebut pada data pelanggan. Slack AI menggunakan LLM yang dihosting langsung dalam infrastruktur AWS Slack, sehingga data pelanggan tetap ada dan tidak dibagikan dengan penyedia LLM mana pun. Hal ini memastikan bahwa data pelanggan tetap berada dalam kendali organisasi tersebut dan secara eksklusif untuk digunakan oleh organisasi tersebut,” kata seorang juru bicara.

Beberapa kebingungan kemungkinan besar akan diatasi lebih cepat. Sebagai balasan atas pandangan kritis terhadap Threads dari insinyur dan penulis Gergely Orosz, insinyur Slack Aaron Maurer kebobolan bahwa perusahaan perlu memperbarui halaman tersebut untuk mencerminkan “bagaimana prinsip privasi ini berperan dalam Slack AI.”

Maurer menambahkan bahwa istilah-istilah ini ditulis pada saat perusahaan belum memiliki Slack AI, dan aturan-aturan ini mencerminkan upaya perusahaan dalam bidang pencarian dan rekomendasi. Sebaiknya pelajari persyaratan untuk pembaruan di masa mendatang, mengingat kebingungan seputar apa yang saat ini dilakukan Slack dengan AI-nya.

Permasalahan di Slack merupakan pengingat bahwa, di dunia perkembangan AI yang bergerak cepat, privasi pengguna tidak boleh diabaikan dan persyaratan layanan perusahaan harus dengan jelas menjelaskan bagaimana dan kapan data digunakan atau tidak.

Punya tip berita? Hubungi Ingrid dengan aman di Signal melalui ingrid.101 atau Di Sini. (Tolong, tidak ada promosi PR.)

Kami meluncurkan buletin AI! Mendaftar Di Sini untuk mulai menerimanya di kotak masuk Anda pada tanggal 5 Juni.

Sumber