Sentimen
Negatif (93%)
21 Feb 2023 : 14.42
Informasi Tambahan

Kab/Kota: Yogyakarta

Tokoh Terkait

Kisah Blunder Microsoft Bikin Chatbot AI di Twitter yang Jadi Rasis

21 Feb 2023 : 14.42 Views 1

Detik.com Detik.com Jenis Media: Tekno

Kisah Blunder Microsoft Bikin Chatbot AI di Twitter yang Jadi Rasis

Yogyakarta -

Sebelum ramai ChatGPT sekarang, dulu pernah ada kejadian chatbot AI buatan Microsoft tahun 2016 silam. Chatbotnya kacau dan rasis. Inilah kisahnya.

Pada tahun 2016 yang lalu, The Verge pernah memberitakan peristiwa blundernya chatbot AI Microsoft yang diluncurkan di Twitter, yakni Tay. Chatbot AI yang diharapkan membantu memahami percakapan kata Microsoft, justru bersikap sebaliknya. Mengapa demikian?

Diberitakan The Verge, hanya butuh waktu kurang dari 24 jam bagi Twitter untuk merusak chatbot AI yang baru saja diluncurkan oleh Microsoft. Awalnya chatbot tersebut merespons dengan baik sebelum orang-orang mulai men-tweet kepada bot tersebut dengan sentimen misoginis, rasis, dan berbau Donald Trump.

-

-

Tay layaknya-burung Beo yang diberi akses internet, mengulangi sentimen tersebut kepada pengguna. Di antara 96.000 tweet yang ada, mayoritas kata-kata kasar yang dikeluarkan Tay hanya menyalin dari pengguna. Meskipun sebagian besar tweet yang dikeluarkan Tay sudah dihapus, namun bot ini seperti tidak mempunyai keyakinan yang tetap.

Tay tampak mendukung feminisme seperti kalimat 'kesetaraan gender=feminisme' dan 'aku cinta feminisme sekarang'. Tapi ada juga kalimat yang merendahkan feminisme dengan ungkapan 'kultus' dan 'kanker'.

Ada juga tweet rasis Tay yang menghina orang Meksiko. Tweet itu diketahui hasil mengolah data ucapan Donald Trump yang sebelumnya beredar di Twitter.

Contoh tweet rasis chatbot AI Tay buatan Microsoft Foto: (Twitter/TayandYou)

Tidak begitu jelas bagaimana Microsoft menyiapkan AI ini. Microsoft mengatakan jika Tay dibuat menggunakan data publik yang relevan. Namun setelah diluncurkan, Tay keluar dari koridor yang ditetapkan.

Menanggapi kerusakan tersebut, Microsoft menghapus sebagian besar linimasa Tay yang berisi ungkapan menyinggung. Bagaimana bisa mengajarkan AI perihal data publik tanpa memberikan sifat terburuk manusia. Microsoft lupa melakukan pencegahan terhadap hal apapun perihal masalah ini.

Lantas bagaimana nasib Tay saat ini? Seperti dilihat detikInet saat ini, Selasa (21/2/2023) akun @TayandYou masih ada namun dikunci. Ternyata Tay bergabung dengan Twitter pada tahun 2015.

Meskipun saat ini akunnya dikunci, namun Tay masih memiliki pengikut lebih dari 100 ribu pengikut. Terdapat tautan yang disematkan namun kita tidak dapat mengakses tautan tersebut.

Simak Video "Upaya Google Hadirkan Pesaing ChatGPT"
[-]
(fay/fay)

Sentimen: negatif (93.8%)