in

Google DeepMind Bentuk Organisasi Baru Fokus pada Keamanan Kecerdasan Buatan

Google DeepMind, divisi penelitian dan pengembangan kecerdasan buatan (AI) yang bertanggung jawab atas model GenAI seperti Gemini dan lainnya, baru-baru ini mengumumkan pembentukan organisasi baru yang berfokus pada keamanan dan keselarasan AI. Organisasi ini diberi nama AI Safety and Alignment dan terdiri dari tim-tim yang sudah bekerja pada keamanan AI, serta tim-tim khusus dari peneliti dan insinyur GenAI.

Latar Belakang

Pertanyaan tentang bagaimana model GenAI dapat digunakan untuk menyebarkan informasi palsu dan memimpin disinformasi telah menjadi perhatian yang berkembang. Google, sebagai pemilik DeepMind, berusaha untuk mengatasi kekhawatiran ini dengan menginvestasikan dana dalam pengembangan langkah-langkah keamanan untuk aplikasi AI.

Fokus Organisasi

AI Safety and Alignment memiliki beberapa tim yang bertanggung jawab untuk mengembangkan dan menggabungkan safeguard konkret ke dalam model Gemini Google, baik yang sudah ada maupun yang sedang dalam pengembangan. Beberapa fokus dekat organisasi ini meliputi:

  1. Mencegah Konsultasi Medis Buruk: Tim ini berusaha untuk memastikan bahwa model AI tidak memberikan saran medis yang salah atau berbahaya.
  2. Keamanan Anak: Organisasi ini akan memastikan bahwa model AI tidak memberikan konten yang tidak pantas atau berbahaya bagi anak-anak.
  3. Mengurangi Bias dan Ketidakadilan: Tim ini akan bekerja untuk mencegah penguatan bias dan ketidakadilan dalam model AI.

Tim Baru untuk Keamanan AGI

Selain itu, AI Safety and Alignment juga akan memiliki tim baru yang berfokus pada keamanan seputar kecerdasan buatan umum (AGI). AGI adalah sistem hipotetis yang dapat melakukan tugas apa pun yang dapat dilakukan oleh manusia. Tim ini akan bekerja bersama tim penelitian yang sudah ada di DeepMind yang juga berfokus pada keamanan AI, yaitu Scalable Alignment. Tim ini sedang mengeksplorasi solusi untuk tantangan teknis dalam mengendalikan AI superinteligensial yang belum terwujud.

Kepemimpinan

Tim baru ini akan dipimpin oleh Anca Dragan, yang sebelumnya adalah peneliti staf Waymo dan profesor ilmu komputer di UC Berkeley. Dragan menjelaskan bahwa tujuan pekerjaan mereka adalah memungkinkan model AI untuk lebih memahami preferensi dan nilai-nilai manusia secara lebih kuat dan lebih tahan terhadap serangan adversarial.

Dengan pembentukan AI Safety and Alignment, Google menunjukkan komitmennya untuk mengembangkan AI dengan tanggung jawab dan keselamatan sebagai prioritas utama. Semoga langkah ini membawa dampak positif bagi perkembangan teknologi AI di masa depan. 🤖🔒

Sumber Berita
Gambar Logo DeepMind

What do you think?

Avatar photo

Written by Inovasee

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

GIPHY App Key not set. Please check settings

Samsung Galaxy Fit3: Kombinasi Layar Besar dan Daya Tahan Baterai 13 Hari

Meta’s Oversight Board Perluas Lingkupnya untuk Sertakan Pengguna Threads