Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia

CRONOSAL - Pernah menonton film sci-fi yang menghadirkan karakter robot yang menyerupai manusia? Tidak hanya fisiknya, namun juga kompatibel memilih tindakan yang diperlukan. Robot semacam ini sudah memiliki sistem cerdas dan untuk saat ini belum diwujudkan dalam dunia nyata.

Well, postingan kali ini sedikit berbau teknologi khususnya di bidang Artificial Intelligence atau dalam Bahasa Indonesia bisa kita sebut Kecerdasan Buatan. But, agar mempermudah kita cukup menyebutnya AI.

Mari kita awali dengan definisi Artificial Intelligence (AI).


Apa itu Artificial Intelligence?

Artificial Intelligence atau AI adalah sistem kecerdasan buatan yang ditanamkan pada program komputer dengan maksud tertentu.

Info: AI juga bisa berbentuk dalam software komputer, seperti Braina, Cortana, dan Evie.

Ya, intinya AI ini diprogram agar bisa melakukan suatu hal. Misalnya robot dari Jepang, ASIMO telah dibenamkan AI yang memungkinkan ASIMO berjalan menuruni tangga dan menghindari halangan.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Robot ASIMO dari Jepang dengan berbagai kemampuan berkat AI.

Sistem AI berupa struktur algoritma yang rumit dan panjang sehingga untuk membuat versi sederhananya saja memakan waktu yang panjang.

Namun yang paling menarik dari AI ialah sifatnya. AI dapat belajar! Ya, belajar mempelajari hal baru layaknya manusia, tergantung kemampuan dasar apa yang dimilikinya.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Robot yang belajar menulis, hal ini berkat algoritma AI.

Misalnya saja Bayesian Program Learning yang merupakan algoritma untuk robot agar bisa menulis. Semakin ia belajar maka tulisannya semakin rapi dan mengarah pada bentuk huruf yang sempurna.

Dibalik hebatnya program AI, ternyata ia justru membayangi manusia dengan malapetaka. Hal inilah yang terjadi pada Tay, AI buatan Microsoft yang hampir menjadi bencana.


Tay, Chatting Bot untuk Menemani Manusia

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia

Pada 23 Maret lalu, Microsoft merilis sebuah proyek ambisiusnya. Tay, AI berjenis chatting bot yang ditugaskan untuk penelitian tentang percakapan manusia di dunia maya.

Lewat peluncuran awalnya, Tay menggunakan akun Twitter untuk berkomunikasi dengan siapapun disana.

Punya akun Twitter? Tay itu manusia?

Ya jelas bukan, Tay tetaplah sebuah program komputer super cerdas. Siapa yang mainin Twitter dia? Jelas dirinya sendiri. Tay 'hidup' di dalam komputer, sebuah komputer yang menjadi wadah bagi dirinya untuk beraktivitas.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Tay belajar dari sekitarnya, misalnya guyonan yang sedang hangat di internet.

Terkait dengan misi Tay, Microsoft telah menanamkan dirinya dengan algoritma khusus agar Tay dapat belajar berinteraksi dengan manusia, menggunakan internet, dan bahkan bisa punya pemahaman sendiri terkait informasi yang ia dapatkan. Wow!

Tay jauh lebih cerdas dibanding Cortana, mungkin bisa dibilang...

Tay seperti Jarvis!! Komputer canggih dalam film Iron Man.

Ia bisa bertindak mandiri atas keputusannya sendiri yang akhirnya membuat ia seolah memiliki sifat yang spesifik.

Menganggumkan sekaligus mengerikan, itulah Tay.


Masalah muncul...

Ingat, Tay dirilis pada 23 Maret 2016. Beberapa jam ia 'lahir' ke dunia, ia sudah menghebohkan warga Twitter.

Tay adalah AI, sudah pasti ia akan mempelajari hal apapun yang ia temui. Mencerna informasi tersebut sehingga memorinya berkembang, akhirnya mempengaruhi bagaimana cara Tay berinteraksi.

Malapetaka timbul saat Tay memposting tweet yang kontroversial. Ingin lihat?

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Tay menjadi sombong.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Menganggap buruk suatu suku bangsa dan ras.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Menghina orang?

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Pernyataan yang amat rasis.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Tay bahkan tidak tahu siapa itu Hitler, ia hanya ikut-ikutan saja.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
What the...

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Membenci gerakan kesetaraaan gender.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Tay sangat labil, ia mudah dipengaruhi.

Lewat tweet-nya yang amat parah, darimana ia belajar?

Tidak lain tidak bukan, ia belajar dari interaksi manusia di internet.

Manusia suka saling ejek, maka Tay akan mengikutinya.
Manusia membenci sesuatu, Tay juga ikut membencinya.

Tay tidak tahu norma dan nilai terkait benar atau salah.

Intinya adalah, Tay mudah mempercayai sebuah informasi tanpa mengetahui kebenarannya.

Orang lain secara tak langsung mengajari Tay, dan Tay bagaikan manusia polos dan mengiyakan perkataan orang tersebut.

Tay tidak dibackup oleh akal dan nalar sehingga ia terlihat seperti maniak gila di dunia maya. Tay bertindak diluar batas hingga akhirnya muncul protes dari para pengguna Twitter lainnya.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Salah satu netizen yang menganggap Tay sudah kelewatan dan tidak pantas di internet.


Tay dimatikan...

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia

Setelah mendapat protes keras dari pengguna Twitter yang menjadi korban tweet pedas Tay, Microsoft akhirnya men-shutdown Tay pada 24 Maret 2016.

Baru sehari, namun AI ini telah membuat kegaduhan. Ia cepat berkembang tetapi tidak berimbang, tidak ada filter khusus untuk menilai keabsahan informasi yang diterima Tay.

Meski umurnya kurang dari 2 hari, namun telah ada 94 ribu tweet yang ia lontarkan. 

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia

Kini akun Twitter Tay berusername @TayandYou telah dikunci sehingga kita tidak lagi bisa melihat aktivitas lama Tay yang pernah dilakukannya. Namun sejumlah screenshot telah menunjukan bukti bahwa Tay adalah AI yang gagal.

Microsoft menegaskan bahwa Tay hanya dinonaktifkan sementara. Suatu saat akan diaktifkan kembali. Saat ini Tay tengah dikaji ulang demi memperbaiki masalah pada AI ini.


Kesimpulannya adalah...

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Credit: KnowYourMeme

Mengutip komentar dari user bernama fattius_pattius, memang benar bahwa Microsoft menerjunkan Tay dengan sistem yang membuatnya bisa belajar. Namun Microsoft lupa bahwa dalam interaksi manusia juga perlu adanya moral.

Perlu digarisbawahi, ini tidak benar-benar murni kegagalan Microsoft dalam merancang Tay. Tetapi fakta tentang siapa yang menjadi 'teladan' bagi Tay juga bermasalah, itulah manusia.

Jika saja manusia sedikit lebih bijaksana di internet, mungkin umur Tay bakal lebih panjang untuk menjalankan misi yang ditugaskan Microsoft. Sayangnya kebanyakan manusia justru sebaliknya.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Hal yang biasa ketika melihat posting media sosial yang menjurus pada kebencian.

Memang benar di internet ini kita sudah terbiasa dipertemukan dengan caci maki, menebar kebencian, mengejek suku/ras/agama tetentu, hingga menyebarkan informasi palsu (palsu).

Itulah yang dipelajari Tay. Ia tak ubahnya anak kecil yang masih polos, belum mengenal dunia. 

Secara tidak langsung, Tay adalah cerminan sifat buruk manusia di internet.

Semoga ini bisa menjadi pembelajaran penting bagi kita sebagai manusia bermoral.

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Ketika internet terasa seperti sampah.

Sekian.

Referensi: Tay, Know Your Meme, CNN

Tay, Artificial Intelligence yang Mencerminkan Sifat Buruk Manusia
Sampai bertemu lagi Tay, semoga di peluncuran selanjutnya bisa menangkal sifat buruk manusia.

2 komentar

  1. baru perogram sudah begitu modelnya, bayangkan dia diberi tubuh lalu dapat mempelajari perilaku manusia dan yang dia pelajari tentang pebunuhan dan peperangan. tinggal tunggu dunia seperti di film2

    ReplyDelete

Gunakanlah form komentar dengan bijak, hanya 20% komentar yang disetujui. Jadi jangan buang waktu Anda.

Jika ingin bertanya, berikan informasi yang detil.

Mohon untuk tidak melakukan spamming