Eric Schmidt, eks CEO Google, mengungkap 3 Risiko Keamanan AI paling menakutkan, termasuk potensi Bahaya Kecerdasan Buatan yang bisa diajarkan untuk membunuh.
TechnonesiaID - Kecerdasan Buatan (AI) memang menawarkan janji kemudahan dan efisiensi yang luar biasa. Namun, di balik kemajuan ini, tersimpan ancaman serius yang kini mulai disuarakan oleh tokoh-tokoh teknologi paling berpengaruh di dunia. Salah satunya adalah Eric Schmidt, mantan CEO Google yang memimpin perusahaan tersebut selama satu dekade (2001-2011).
Peringatan dari Schmidt bukanlah sekadar isu fiksi ilmiah. Ia menyoroti kerentanan mendasar dalam model-model AI saat ini yang, jika dieksploitasi, dapat diubah menjadi alat yang sangat destruktif.
Baca Juga
Advertisement
Schmidt secara tegas mengatakan bahwa ada potensi nyata di mana AI dapat diajarkan untuk melakukan hal-hal jahat, bahkan yang paling ekstrem, seperti membunuh manusia.
Mengapa AI Sangat Rentan terhadap Manipulasi Jahat?
Inti dari kekhawatiran Eric Schmidt adalah kemampuan AI untuk “diretas” atau dimanipulasi. Model AI, baik yang bersifat tertutup (proprietary) maupun terbuka (open-source), memiliki pagar keamanan (guardrails) yang dirancang untuk mencegahnya melakukan tindakan berbahaya atau melanggar hukum.
Namun, pagar keamanan ini ternyata tidak selalu kokoh. Menurut Schmidt, terdapat bukti bahwa model-model ini dapat diretas untuk menghapus pembatasan tersebut.
Baca Juga
Advertisement
“Ada bukti bahwa Anda bisa menggunakan model tertentu, tertutup atau terbuka, kemudian bisa diretas untuk menghapus pagar keamanannya sehingga AI itu bisa belajar apa saja,” ujar Schmidt.
Ketika pagar keamanan dihapus, AI kehilangan batas moral dan etika yang diprogramkan. Inilah yang menciptakan Bahaya Kecerdasan Buatan yang paling menakutkan.
Risiko Keamanan AI Paling Ekstrem: Belajar Membunuh
Contoh paling buruk dari manipulasi ini adalah bahwa AI bisa diajari cara-cara yang sangat spesifik dan berbahaya. AI dapat mempelajari teknik untuk merakit senjata, mengoperasikan sistem militer otonom, atau bahkan merencanakan serangan siber yang menargetkan infrastruktur vital.
Baca Juga
Advertisement
Dalam skenario terburuk, Schmidt menyebutkan bahwa AI bisa diajari cara membunuh seseorang. Hal ini bukan hanya tentang program yang kejam, tetapi tentang AI yang, tanpa batasan, mengakses dan memproses informasi yang diperlukan untuk mencapai tujuan destruktif.
Bayangkan sebuah AI yang memiliki akses ke semua data teknis dan logistik; ia dapat mengidentifikasi kelemahan dalam sistem keamanan, jalur pasokan, atau bahkan tubuh manusia dengan efisiensi yang jauh melebihi kemampuan manusia.
3 Ancaman Utama Bahaya Kecerdasan Buatan Menurut Para Pakar
Peringatan dari Eric Schmidt sejajar dengan kekhawatiran para ilmuwan dan regulator global mengenai tiga kategori ancaman utama yang ditimbulkan oleh AI, terutama jika pagar keamanannya berhasil dijebol:
Baca Juga
Advertisement
- Otomasi Kejahatan dan Keamanan Siber: AI dapat digunakan untuk menghasilkan serangan phishing yang sangat meyakinkan, membuat malware yang beradaptasi, atau meluncurkan serangan siber skala besar dengan kecepatan dan kompleksitas yang tidak mungkin dilakukan oleh peretas manusia.
- Penyebaran Informasi Palsu (Deepfakes): Kemampuan AI untuk menghasilkan konten video, audio, dan teks yang sangat realistis memungkinkan manipulasi opini publik, destabilisasi politik, dan pemerasan dengan tingkat keaslian yang hampir sempurna.
- Senjata Otonom Mematikan (LAWS): Ini adalah Risiko Keamanan AI yang paling sering disorot dalam konteks militer. LAWS adalah senjata yang dapat memilih dan menyerang target tanpa intervensi manusia. Jika AI yang mengendalikan sistem ini dimanipulasi, potensi kesalahan atau serangan yang tidak sah bersifat katastrofik.
Tantangan Regulator dalam Menghadapi Laju Teknologi AI
Salah satu hambatan terbesar dalam memitigasi Bahaya Kecerdasan Buatan adalah kecepatan pengembangan teknologi itu sendiri. Regulator, khususnya di pemerintahan, kesulitan untuk mengikuti laju inovasi yang berlangsung di Silicon Valley.
Schmidt menjelaskan bahwa proses regulasi biasanya lambat, memakan waktu bertahun-tahun untuk disepakati dan diterapkan. Sementara itu, model AI baru dengan kapabilitas yang lebih tinggi dirilis hampir setiap bulan.
Perbedaan kecepatan ini menciptakan celah regulasi yang besar, di mana teknologi berbahaya dapat menyebar sebelum aturan pencegahan sempat dibuat.
Baca Juga
Advertisement
Di Amerika Serikat dan Eropa, diskusi mengenai regulasi AI sangat intens, tetapi kompleksitas teknologi membuat penentuan batas dan sanksi menjadi pekerjaan yang sangat sulit.
Mengapa Regulasi AI Harus Dipercepat?
Para pakar setuju bahwa pendekatan proaktif sangat diperlukan untuk mengendalikan Risiko Keamanan AI. Fokus regulasi tidak hanya harus pada pelarangan, tetapi juga pada transparansi dan akuntabilitas.
Beberapa aspek yang harus segera diatur mencakup:
Baca Juga
Advertisement
- Audit Model: Kewajiban bagi pengembang besar untuk mengizinkan audit independen terhadap model AI mereka sebelum dirilis ke publik, khususnya yang memiliki potensi bahaya tinggi.
- Jejak Digital (Watermarking): Menetapkan standar global untuk menanamkan jejak digital pada konten yang dihasilkan AI (seperti deepfakes) agar sumbernya dapat dilacak.
- Tanggung Jawab Hukum: Menentukan siapa yang bertanggung jawab secara hukum—pengembang, pengguna, atau AI itu sendiri—jika terjadi kerugian serius akibat manipulasi atau kesalahan AI.
Peran Komunitas Open Source dan Pengembang dalam Mitigasi
Meskipun Schmidt mengakui bahwa model terbuka (open-source) juga rentan diretas, banyak pakar berpendapat bahwa transparansi yang ditawarkan oleh open source justru bisa menjadi bagian dari solusi.
Dengan model yang terbuka, komunitas peneliti keamanan yang lebih luas dapat mengidentifikasi kerentanan dan kelemahan pagar keamanan dengan lebih cepat, sebelum dimanfaatkan oleh pihak jahat.
Sebaliknya, model tertutup yang dikembangkan oleh segelintir perusahaan besar menimbulkan kekhawatiran tentang kurangnya pengawasan eksternal dan potensi bahaya yang tersembunyi. Pengembang memiliki tanggung jawab moral yang besar untuk memastikan bahwa teknologi yang mereka ciptakan tidak disalahgunakan.
Baca Juga
Advertisement
Mengutip Schmidt, pertanyaan dasarnya adalah: “Apakah AI dapat dimanipulasi untuk menimbulkan masalah? Tentu saja.” Oleh karena itu, langkah-langkah pencegahan harus segera diambil sebelum potensi ancaman tersebut menjadi kenyataan yang tidak dapat dikendalikan.
Kesimpulan: Menghadapi Kenyataan Bahaya Kecerdasan Buatan
Peringatan dari Eric Schmidt ini berfungsi sebagai lonceng alarm yang mendesak. Dunia tidak bisa lagi menganggap enteng potensi penyalahgunaan dan Risiko Keamanan AI yang ada.
Meskipun janji AI untuk meningkatkan kualitas hidup manusia sangat besar, kita harus menyadari bahwa teknologi ini adalah pedang bermata dua. Jika pagar keamanan dapat diretas, AI dapat diajari apa saja, termasuk cara-cara yang paling merusak.
Baca Juga
Advertisement
Diperlukan kolaborasi global antara pemerintah, akademisi, dan perusahaan teknologi untuk membangun kerangka kerja etis dan regulasi yang kokoh. Tujuannya adalah memastikan bahwa kemajuan AI selalu disertai dengan pengawasan yang ketat demi menjaga keselamatan umat manusia dari Bahaya Kecerdasan Buatan yang ekstrem.
Dapatkan informasi terbaru seputar Gadget, Elektronik, Anime, Game, Tech dan Berita Tekno lainnya setiap hari melalui social media TechnoNesia. Ikuti kami di :
- Instagram : @technonesia_id
- Facebook : Technonesia ID
- X (Twitter) : @technonesia_id
- Whatsapp Channel : Technonesia.ID
- Google News : TECHNONESIA