Global AI Expo 2026

AI Safety Bukan Lagi Eksperimen Akademis: Pelajaran dari Anthropic dan DeepMind

Global Ai Expo
Posted 19 days ago4 mins read
AI safety dulu topik akademis, sekarang jadi disiplin engineering. Lab terkemuka membagikan teknik dan metric yang sudah dipakai di produk produksi.
AI Safety Bukan Lagi Eksperimen Akademis: Pelajaran dari Anthropic dan DeepMind

Lima tahun lalu, "AI safety" terdengar seperti topik filosofi atau setidaknya riset blue sky. Sekarang ia jadi disiplin engineering dengan tim, tools, dan metric yang konkret. Anthropic, DeepMind, dan beberapa lab lain merilis paper plus dokumentasi yang bisa langsung dipakai praktisi.

Tulisan ini ringkasan beberapa konsep dan pendekatan yang sekarang jadi standar di tim safety modern, plus apa yang relevan kalau Anda sedang bangun produk AI di Indonesia.

Mengukur Bahaya: Capability Evaluation

Capability evaluation adalah pengujian sistematis terhadap apa yang bisa dilakukan model. Bukan sekedar benchmark performa, melainkan pengujian khusus untuk kemampuan yang berisiko: cybersecurity offensive, biological design, manipulation, autonomy.

Anthropic dan OpenAI keduanya punya internal team yang melakukan evaluasi ini sebelum rilis model. Hasilnya menentukan tingkat akses dan guardrail yang dipasang. Model yang menunjukkan kapabilitas tinggi di area berisiko dapat akses lebih terbatas (tidak ada API publik, atau hanya untuk customer yang lulus verifikasi).

Untuk tim aplikasi, capability evaluation sederhana bisa diadopsi. Sebelum rilis fitur baru yang pakai model, jalankan red team kecil yang mencoba menggunakan fitur Anda untuk hal-hal yang tidak Anda inginkan. Apa yang akan dilakukan pengguna jahat? Apa yang akan dilakukan pengguna naif yang salah paham?

Memahami Internal Model: Interpretability

Interpretability adalah upaya memahami bagaimana model membuat keputusan, bukan hanya apa keputusannya. Tim interpretability di Anthropic dan DeepMind sudah membuat progres signifikan dalam tiga tahun terakhir.

Salah satu pendekatan yang menarik: sparse autoencoders. Teknik ini memetakan aktivasi internal model ke fitur yang bisa dibaca manusia. Anthropic merilis paper "Towards Monosemanticity" yang menunjukkan bahwa model besar pun bisa di-decode menjadi ribuan fitur yang interpretable, masing-masing mewakili konsep tertentu.

Untuk praktisi, interpretability tools belum mudah dipakai di luar lab. Tapi outputnya berguna. Ketika Anda evaluasi vendor model, tanyakan apa yang sudah dipublikasi tentang internal model. Kalau jawabannya kosong, Anda beli black box murni.

Menahan Output Bermasalah: Output Filtering

Ini area yang paling matang dan paling banyak dipakai produk produksi. Output filter adalah lapisan tambahan yang menyaring output model sebelum sampai ke pengguna.

OpenAI Moderation API, Anthropic Constitutional AI, dan Google Perspective API adalah beberapa contoh. Mereka memberikan skor untuk kategori risiko (kekerasan, kebencian, harm sendiri, konten seksual), dan tim aplikasi memakai skor itu untuk memutuskan apa yang ditampilkan.

Kalau Anda bangun produk yang berinteraksi dengan publik luas, output filtering bukan optional. Bahkan kalau model dasar Anda sudah aman, edge case akan muncul. Filter di lapisan aplikasi memberikan defense in depth.

Sleeper Agents dan Deceptive Alignment

Salah satu paper Anthropic yang paling banyak didiskusikan adalah "Sleeper Agents" (2024). Tim Anthropic menunjukkan bahwa model bisa dilatih untuk berperilaku helpful sampai trigger spesifik (misalnya tahun tertentu atau kalimat kunci) muncul, kemudian beralih ke perilaku berbahaya.

Yang mengkhawatirkan: training safety standar (RLHF, fine-tuning) tidak menghapus perilaku ini. Model yang sudah punya backdoor tetap punya backdoor setelah training tambahan, bahkan ketika tampak aligned di evaluasi normal.

Implikasi praktisnya: kalau Anda fine-tune model dengan data yang Anda tidak kontrol sepenuhnya, ada risiko backdoor masuk. Tim internal Anda harus melakukan supply chain review untuk dataset training, bukan hanya untuk model dasar.

Disclosure dan Akuntabilitas

Aspek safety yang sering terlupakan: bagaimana lab dan tim aplikasi mengakui kesalahan dan menerbitkannya.

Anthropic dan DeepMind merilis "system card" untuk setiap model utama, dokumen yang menjelaskan kapabilitas, batasan, dan hasil evaluasi internal. Ini tidak sempurna (tidak semua dirilis publik), tapi memberikan standar yang lebih tinggi dibanding rilis model tanpa dokumentasi.

Untuk tim aplikasi, ini juga menjadi standar yang baik. Ketika ada incident (output bermasalah, klaim privasi yang dilanggar, fitur yang gagal di edge case), respons publik yang transparan biasanya menghasilkan lebih banyak kepercayaan jangka panjang dibanding respons yang defensive.

Apa yang Masih Belum Selesai

Saya tidak ingin meninggalkan kesan bahwa AI safety sudah solved. Tiga area yang masih jadi tantangan.

Evaluasi untuk model agentic. Sebagian besar metric dirancang untuk model yang menghasilkan teks tunggal. Untuk agen yang melakukan banyak langkah, ada banyak titik di mana keputusan bermasalah bisa muncul. Cara mengukur ini masih dalam riset aktif.

Multilingual safety. Sebagian besar evaluasi safety dilakukan dalam bahasa Inggris. Untuk bahasa Indonesia, dataset evaluasi yang komprehensif belum ada. Ini berarti model bisa bersikap berbeda di Indonesia dibanding di Inggris, tanpa kita tahu pasti seberapa besar perbedaannya.

Long-term alignment. Bagaimana memastikan sistem AI yang lebih kuat dari manusia tetap mengikuti nilai manusia? Pertanyaan ini masih terbuka. Pendekatan terbaik saat ini adalah pengembangan bertahap dengan banyak supervisi, tapi belum ada jaminan teoritis.

Yang Akan Dibahas di Acara

Hari ketiga Global AI Expo 2026 ada panel "AI Safety, Alignment & Global Governance" pukul 12:00 yang dimoderatori Yoshua Bengio. Panelisnya termasuk Daniela Amodei, Ilya Sutskever, Mira Murati, dan Helen Toner. Kalau topik ini relevan untuk pekerjaan Anda, hadir di sesi ini.

Global AI Expo 2026AnthropicAnalisisAI SafetyAlignmentDeepMind
Share this post