Google suspends Gemini chatbot’s ability to generate pictures of people

Gemini Terhenti: Tantangan AI Mewujudkan Representasi Visual

Pada tanggal 22 Februari 2024, Google membuat keputusan untuk menghentikan sementara fitur generasi gambar orang di chatbot Gemini AI. Keputusan ini diambil setelah munculnya kritik terhadap “ketidakakuratan” dalam penggambaran historis yang dihasilkan oleh chatbot tersebut. Pengguna Gemini memposting tangkapan layar di media sosial yang menunjukkan gambar-gambar yang dihasilkan Gemini, di mana terdapat karakter ras non-kulit putih dalam adegan-adegan yang secara historis didominasi oleh ras kulit putih. Hal ini memicu pertanyaan tentang potensi bias rasial dalam model AI Google.

Sebelumnya, Google telah dipuji atas upaya mereka untuk meningkatkan keragaman dalam model AI mereka. Namun, insiden ini menunjukkan bahwa masih ada banyak pekerjaan yang harus dilakukan untuk mengatasi bias dalam AI.

Potensi Bias dan Stereotip dalam AI

Kasus Gemini AI ini bukan pertama kalinya AI menunjukkan potensi bias dan stereotip. Penelitian sebelumnya telah menunjukkan bahwa model AI dapat memperkuat stereotip ras dan gender yang ada dalam data pelatihan mereka. Hal ini dapat berakibat pada berbagai macam konsekuensi negatif, seperti diskriminasi dan marginalisasi kelompok minoritas.

Salah satu contohnya adalah penelitian yang dilakukan oleh Timnit Gebru dan koleganya di Google AI. Mereka menemukan bahwa model AI yang dilatih pada dataset gambar wajah manusia lebih cenderung menghasilkan gambar pria berkulit putih daripada wanita berkulit hitam. Hal ini menunjukkan bahwa model AI dapat mencerminkan dan memperkuat bias yang ada dalam masyarakat.

Tantangan dalam Mewujudkan Representasi yang Adil dalam AI

Membuat AI yang adil dan representatif merupakan sebuah tantangan besar. Salah satu faktor utama yang berkontribusi terhadap bias dalam AI adalah kurangnya keragaman dalam dataset pelatihan. Dataset ini sering kali tidak mencerminkan keragaman populasi manusia, sehingga model AI yang dilatih dengan dataset tersebut dapat menghasilkan gambar yang bias dan tidak akurat.

Faktor lain yang perlu dipertimbangkan adalah algoritma yang digunakan dalam model AI. Algoritma ini dapat mengandung bias yang tidak disadari, yang dapat berakibat pada hasil yang tidak adil.

Upaya Google untuk Mengatasi Bias dalam AI

Google telah mengambil beberapa langkah untuk mengatasi bias dalam AI. Salah satunya adalah dengan mengembangkan dataset yang lebih beragam dan inklusif. Google juga telah meluncurkan program “Responsible AI” yang bertujuan untuk memastikan bahwa AI dikembangkan dan digunakan secara bertanggung jawab.

Namun, masih banyak yang harus dilakukan untuk mengatasi bias dalam AI. Diperlukan penelitian lebih lanjut untuk mengembangkan model AI yang adil dan representatif. Selain itu, perlu ada kolaborasi antara berbagai pihak, termasuk akademisi, industri, dan pemerintah, untuk menciptakan ekosistem AI yang lebih adil dan inklusif.

Perkembangan Terbaru dalam Generasi Gambar Google AI

Meskipun insiden Gemini, Google terus mengembangkan teknologi generasi gambar AI. Pada bulan Mei 2024, Google meluncurkan Imagen, model AI baru yang dapat menghasilkan gambar yang lebih realistis dan detail daripada model sebelumnya. Imagen dilatih pada dataset besar yang berisi gambar dan teks, dan dapat menghasilkan gambar berdasarkan berbagai macam prompt.

Namun, Imagen masih dalam tahap pengembangan awal, dan belum jelas bagaimana model ini akan mengatasi bias data. Google perlu berhati-hati dalam mengembangkan Imagen dan memastikan bahwa model ini tidak digunakan untuk menyebarkan bias dan diskriminasi.

Kasus Gemini AI merupakan pengingat akan potensi bahaya bias dalam AI. Penting bagi kita untuk terus belajar dan memahami bagaimana AI dapat menghasilkan gambar yang bias dan tidak akurat. Kita juga harus terus bekerja untuk mengembangkan AI yang adil dan representatif, sehingga AI dapat bermanfaat bagi semua orang.