Google DeepMind Bentuk Organisasi Baru Fokus Keamanan AI

Peluncuran model GenAI Google, seperti Gemini, telah memicu kekhawatiran publik dan regulator tentang potensi penyalahgunaannya. Kemampuan GenAI menghasilkan teks realistis, meniru gaya penulisan tertentu, dan berbohong, memicu risiko serius. GenAI bisa menyebarkan disinformasi, deepfake, dan konten menyesatkan lainnya.

Hal ini membahayakan karena dapat memanipulasi orang dan merusak kepercayaan. Kekhawatiran ini telah mendorong pembuat kebijakan untuk meningkatkan pengawasan terhadap AI. Di Amerika Serikat, Senator Mark Warner dan Senator Marco Rubio baru-baru ini memperkenalkan undang-undang yang akan mengharuskan perusahaan untuk melakukan audit keamanan terhadap model AI mereka. Di Uni Eropa, Komisi Eropa sedang merancang peraturan AI yang akan mengatur penggunaan AI di berbagai sektor.

Upaya Google untuk Mengatasi Keamanan AI

Pembentukan AI Safety and Alignment merupakan langkah penting dari Google untuk mengatasi kekhawatiran ini. Organisasi ini akan fokus pada pengembangan pengamanan konkret ke dalam model GenAI saat ini dan yang sedang dikembangkan, serta meneliti solusi jangka panjang untuk risiko yang terkait dengan AGI.

Tantangan yang Dihadapi

  • Skeptisisme publik yang tinggi terhadap GenAI: Sebuah survei YouGov menunjukkan bahwa 85% orang Amerika khawatir tentang penyebaran deepfake.
  • Kekhawatiran perusahaan terhadap GenAI: Sebuah survei Cnvrg.io menunjukkan bahwa 25% perusahaan memiliki keraguan tentang kepatuhan, privasi, dan keandalan GenAI.
  • Kesulitan mengatasi kecenderungan GenAI untuk berhalusinasi: Hal ini dapat menyebabkan model menghasilkan informasi palsu yang sulit dibedakan dari kenyataan.

Solusi yang Diajukan

Dragan dan timnya di AI Safety and Alignment berencana untuk mengatasi tantangan ini dengan:

  • Mempertimbangkan bias kognitif manusia dalam data pelatihan: Hal ini untuk mencegah model GenAI mencerminkan dan memperkuat bias yang ada dalam masyarakat.
  • Memperkirakan ketidakpastian untuk mengidentifikasi kekurangan: Hal ini memungkinkan model untuk mengetahui kapan ia tidak memiliki informasi yang cukup untuk memberikan jawaban yang akurat.
  • Memantau inferensi untuk menangkap kegagalan: Hal ini memungkinkan model untuk mendeteksi dan memperbaiki kesalahannya sendiri.
  • Melakukan dialog konfirmasi untuk keputusan penting: Hal ini memastikan bahwa manusia memiliki kontrol atas keputusan yang dibuat oleh model.
  • Melacak kemampuan model untuk terlibat dalam perilaku berbahaya: Hal ini memungkinkan tim AI untuk mengidentifikasi dan mengatasi potensi risiko sebelum model digunakan secara luas.

Pembentukan AI Safety and Alignment menunjukkan komitmen Google terhadap keamanan AI. Namun, organisasi ini masih harus mengatasi banyak tantangan untuk mendapatkan kepercayaan publik dan regulator. Keberhasilan organisasi ini akan bergantung pada kemampuannya untuk mengembangkan solusi yang efektif untuk mengatasi risiko yang terkait dengan GenAI dan AGI.

Baca juga: Model Gemma: Model LLM Baru yang Ringan dan “Terbuka”