February 12, 2025

Masih Salah Gambar Orang Kidal, PM Modi Ungkap Masalah Bias Model AI di AI Action Summit Paris 2025

Penulis: Iwan RS
Masih Salah Gambar Orang Kidal, PM Modi Ungkap Masalah Bias Model AI di AI Action Summit Paris 2025 

Mobitekno – Perkembangan Model AI yang dikembangkan OpenAI, Google Gemini, Meat AI hingga Grok masih jauh dari sempurna. Apalagi jika dikaitkan dengan kemampuan multimodalnya yang masih bias. Selama berpidato di AI Action Summit (AIAS) di Paris pada tanggal 11 Februari 2025, Perdana Menteri India, Narendra Modi, menyampaikan sebuah fakta menarik tentang kecerdasan buatan (AI) yang memberikan pencerahan tentang bias dalam sistem model AI.

AIAS merupakan forum internasional yang mempertemukan para pemimpin dunia, ahli, dan pemangku kepentingan untuk membahas dan membentuk masa depan kecerdasan buatan (AI). KTT ini bertujuan untuk mendorong diskusi dan langkah nyata terkait perkembangan dan tata kelola AI di tingkat global.

AIAS 2025 Paris 01

Modi menyatakan, “Jika Anda meminta aplikasi AI untuk menggambar seseorang yang menulis dengan tangan kirinya, aplikasi tersebut kemungkinan besar akan menggambar seseorang yang menulis dengan tangan kanannya.” Pernyataan ini tidak hanya menarik perhatian para peserta, tetapi juga memicu diskusi lebih lanjut mengenai keadilan dan ketepatan dalam pengembangan teknologi AI.

Beberapa netizen melalui platform X (Twitter) merespons ucapan MPM Modi tersebut dan membagikan hasilnya. Seorang pengguna X mengakui baru mengetahui tetang hal tersebut. Ia pun balik bertanya, berapa banyak dari Anda yang mengetahuinya?.

Pengguna lainnya menguji ucapan PM Modi dengan menggunakan Model AI Grok, Gemini dan ChatGPT (DALL-E). Hasilnya , semuanya menggambar orang yang menulis dengan tangan kanan, bukan tangan kiri. Meskipun prompt tambahan diberikan untuk memperbaikinya, tetapi hasilnya tetap sama (gambar dengan tangan kanan).

Bias dalam data pelatihan AI

PM Modi menyoroti bahwa AI sering kali mencerminkan bias yang ada dalam data pelatihan yang digunakan untuk mengembangkannya. Algoritma AI dilatih menggunakan sejumlah besar data, dan jika data ini tidak representatif atau mengandung bias, algoritma tersebut juga akan mencerminkan bias tersebut dalam hasilnya.

Dalam kasus ini, kemungkinan yang terjadi adalah sebagian besar data pelatihan yang digunakan untuk model AI tersebut terdiri dari gambar orang yang menulis dengan tangan kanan. Akibatnya, algoritma tersebut menjadi lebih mungkin untuk menghasilkan gambar orang yang menulis dengan tangan kanan, bahkan ketika diminta untuk menggambar seseorang yang menulis dengan tangan kiri.

Bing bias gambar left handed
Bias tangan kiri (kidal) saat membuat gambar dengan Bing Image Creator (DALL-E).

Data ini mungkin berasal dari berbagai sumber seperti internet, media sosial, dan database foto yang umumnya menampilkan lebih banyak orang kanan tangan. Karena mayoritas populasi dunia adalah kanan tangan, AI belajar dari gambar-gambar ini dan kemudian menggeneralisasi bahwa semua orang menulis dengan tangan kanan, meskipun diminta untuk menggambarkan seorang kiri tangan.

Implikasi bias dalam AI

Pernyataan Modi menyoroti bagaimana bias dalam AI dapat mempengaruhi persepsi dan pengambilan keputusan. Apabila AI tidak mampu mencerminkan realitas kompleks dari dunia, termasuk keragaman dalam kemampuan dan preferensi tangan manusia, maka hasil yang dihasilkan bisa menjadi tidak akurat atau bahkan diskriminatif.

Algoritma AI yang bias dapat menyebabkan diskriminasi terhadap kelompok tertentu. Misalnya, penelitian telah menunjukkan bahwa beberapa algoritma pengenalan wajah cenderung kurang akurat dalam mengidentifikasi orang-orang dengan warna kulit gelap.

Meat AI bias gambar left handed
Bias tangan kiri (kidal) saat membuat gambar dengan Meta AI.

Ini bukan hanya berlaku untuk gambar, tetapi juga dalam aplikasi lain seperti pengenalan wajah, sistem rekomendasi, dan bahkan dalam pengambilan keputusan medis atau hukum. Bias ini bisa memperkuat stereotip atau bahkan membuat sistem AI kurang efektif dalam melayani populasi yang lebih luas.

Modi juga menjelaskan bahwa India sedang berusaha untuk mengatasi masalah ini dengan mengembangkan model AI sendiri yang mempertimbangkan keberagaman demografis negara tersebut. Dengan membangun model bahasa besar (large language models) yang mengintegrasikan data dari berbagai latar belakang sosial, budaya, dan geografis, India bertujuan untuk menciptakan AI yang lebih inklusif dan representatif.

Pentingnya mengatasi bias dalam AI

Pernyataan Modi telah menginspirasi banyak diskusi di komunitas teknologi global. Para peneliti dan pengembang AI telah menguji klaimnya dengan berbagai model AI populer seperti Grok, DALL-E, dan Midjourney, dengan hasil yang konsisten menunjukkan kecenderungan untuk menggambar orang kanan tangan meskipun diminta untuk sebaliknya. Ini telah mendorong beberapa perusahaan teknologi untuk kembali mengevaluasi dataset pelatihan mereka, mencari cara untuk memasukkan lebih banyak keragaman dalam data untuk mengurangi bias.

Dengan mengungkapkan realitas ini, Narendra Modi tidak hanya menyoroti masalah yang signifikan dalam pengembangan AI tetapi juga memimpin sebuah gerakan menuju AI yang lebih adil dan inklusif. Pernyataan PM Modi di AI Action Summit tentang bias dalam AI merupakan pengingat penting tentang kekuatan teknologi dan potensi dampaknya pada masyarakat secara umum.

Gemini bias gambar left handed
Bias tangan kiri (kidal) saat membuat gambar dengan Google Gemini.

Pernyataannya juga menjadi panggilan untuk para pengembang, peneliti, dan regulator di seluruh dunia untuk bekerja sama dalam memastikan bahwa teknologi masa depan benar-benar mencerminkan dan melayani kebutuhan semua manusia, dan bukan hanya sekelompok kecil dengan karakteristik tertentu.

Bias dalam AI merupakan masalah serius yang perlu ditangani untuk memastikan bahwa teknologi ini digunakan secara adil dan bertanggung jawab. Dengan pendekatan yang lebih sadar akan bias ini, kita bisa berharap bahwa AI akan menjadi alat yang lebih efektif dan adil dalam memajukan kemanusiaan.

 

Tags: , , , , , , ,


COMMENTS