Close Menu
  • Berita Tekno
  • Trending
  • Gadget
  • Elektronik
  • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime

Subscribe to Updates

Get the latest creative news from FooBar about art, design and business.

What's Hot

3 Langkah Nonaktifkan Gemini AI di Gmail & Chrome, Jaga Privasi Anda

26 November 2025 | 07:38

5 Fakta Mengejutkan Evolusi Ciuman Pertama: Jauh Lebih Awal dari Manusia

26 November 2025 | 05:38

5 Alasan Indonesia Pamer Teknologi QRIS Sukses di Forum Dunia

26 November 2025 | 03:38
Facebook X (Twitter) Instagram
Trending
  • 3 Langkah Nonaktifkan Gemini AI di Gmail & Chrome, Jaga Privasi Anda
  • 5 Fakta Mengejutkan Evolusi Ciuman Pertama: Jauh Lebih Awal dari Manusia
  • 5 Alasan Indonesia Pamer Teknologi QRIS Sukses di Forum Dunia
  • 5 Alasan Aplikasi Tring Pegadaian Jadi Ekosistem Emas Terintegrasi
  • 7 Slogan Ikonik yang Mendefinisikan Evolusi Slogan MIUI HyperOS Xiaomi
  • 7 Alasan Review Motorola Edge 70: Ponsel Tipis Bertenaga
  • 5 Dampak Aturan Media Sosial Australia yang Bikin Kreator Konten Kabur
  • Galaxy Z Fold7 Mengubah Cara Riset dan Eksekusi Bisnis, Lebih Cepat dan Cerdas
Rabu, November 26
Facebook Instagram YouTube TikTok WhatsApp X (Twitter) LinkedIn
TechnoNesia.IDTechnoNesia.ID
  • Berita Tekno
  • Trending
  • OtoTekno
    • Elektronik
    • Gadget
    • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime
TechnoNesia.IDTechnoNesia.ID
  • Berita Tekno
  • Trending
  • Gadget
  • Elektronik
  • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime
Beranda » Berita Tekno » 3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google
Berita Tekno

3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google

Olin SianturiOlin Sianturi11 Oktober 2025 | 17:08
Bagikan Copy Link WhatsApp Facebook Twitter LinkedIn Threads Tumblr Email Telegram Pinterest
Bahaya Kecerdasan Buatan, Risiko Keamanan AI
Bagikan
Copy Link WhatsApp Facebook Twitter LinkedIn Pinterest Email

Eric Schmidt, eks CEO Google, mengungkap 3 Risiko Keamanan AI paling menakutkan, termasuk potensi Bahaya Kecerdasan Buatan yang bisa diajarkan untuk membunuh.

TechnonesiaID - Kecerdasan Buatan (AI) memang menawarkan janji kemudahan dan efisiensi yang luar biasa. Namun, di balik kemajuan ini, tersimpan ancaman serius yang kini mulai disuarakan oleh tokoh-tokoh teknologi paling berpengaruh di dunia. Salah satunya adalah Eric Schmidt, mantan CEO Google yang memimpin perusahaan tersebut selama satu dekade (2001-2011).

Peringatan dari Schmidt bukanlah sekadar isu fiksi ilmiah. Ia menyoroti kerentanan mendasar dalam model-model AI saat ini yang, jika dieksploitasi, dapat diubah menjadi alat yang sangat destruktif.

Baca Juga

  • 5 Fakta Mengejutkan Evolusi Ciuman Pertama: Jauh Lebih Awal dari Manusia
  • 3 Pelajaran Pahit dari Valuasi Startup Byju’s Nol: Nasib CEO Byju Raveendran

Advertisement

Schmidt secara tegas mengatakan bahwa ada potensi nyata di mana AI dapat diajarkan untuk melakukan hal-hal jahat, bahkan yang paling ekstrem, seperti membunuh manusia.

Mengapa AI Sangat Rentan terhadap Manipulasi Jahat?

Inti dari kekhawatiran Eric Schmidt adalah kemampuan AI untuk “diretas” atau dimanipulasi. Model AI, baik yang bersifat tertutup (proprietary) maupun terbuka (open-source), memiliki pagar keamanan (guardrails) yang dirancang untuk mencegahnya melakukan tindakan berbahaya atau melanggar hukum.

Namun, pagar keamanan ini ternyata tidak selalu kokoh. Menurut Schmidt, terdapat bukti bahwa model-model ini dapat diretas untuk menghapus pembatasan tersebut.

Baca Juga

  • Kasus Hukum Meta: 4 Fakta Mengejutkan Bukti Zuckerberg Sembunyikan Data Penting
  • 3 Teori Ilmiah Asal Usul Hajar Aswad yang Bikin Peneliti Dunia Penasaran

Advertisement

“Ada bukti bahwa Anda bisa menggunakan model tertentu, tertutup atau terbuka, kemudian bisa diretas untuk menghapus pagar keamanannya sehingga AI itu bisa belajar apa saja,” ujar Schmidt.

Ketika pagar keamanan dihapus, AI kehilangan batas moral dan etika yang diprogramkan. Inilah yang menciptakan Bahaya Kecerdasan Buatan yang paling menakutkan.

Risiko Keamanan AI Paling Ekstrem: Belajar Membunuh

Contoh paling buruk dari manipulasi ini adalah bahwa AI bisa diajari cara-cara yang sangat spesifik dan berbahaya. AI dapat mempelajari teknik untuk merakit senjata, mengoperasikan sistem militer otonom, atau bahkan merencanakan serangan siber yang menargetkan infrastruktur vital.

Baca Juga

  • Top 5 HP Indonesia Q3 2025: 5 Alasan Samsung Rajai Pasar
  • 5 Fakta Terbaru Kebijakan Ekspor Chip AI: Nvidia H200 ke China Batal Dilarang?

Advertisement

Dalam skenario terburuk, Schmidt menyebutkan bahwa AI bisa diajari cara membunuh seseorang. Hal ini bukan hanya tentang program yang kejam, tetapi tentang AI yang, tanpa batasan, mengakses dan memproses informasi yang diperlukan untuk mencapai tujuan destruktif.

Bayangkan sebuah AI yang memiliki akses ke semua data teknis dan logistik; ia dapat mengidentifikasi kelemahan dalam sistem keamanan, jalur pasokan, atau bahkan tubuh manusia dengan efisiensi yang jauh melebihi kemampuan manusia.

3 Ancaman Utama Bahaya Kecerdasan Buatan Menurut Para Pakar

Peringatan dari Eric Schmidt sejajar dengan kekhawatiran para ilmuwan dan regulator global mengenai tiga kategori ancaman utama yang ditimbulkan oleh AI, terutama jika pagar keamanannya berhasil dijebol:

Baca Juga

  • 7 Fakta Mencengangkan Afrika Terbelah Dua, Muncul Samudra Baru?
  • 5 Fakta Mengejutkan Penggerebekan Markas Sarang Penipu Online Terbesar Myanmar

Advertisement

  • Otomasi Kejahatan dan Keamanan Siber: AI dapat digunakan untuk menghasilkan serangan phishing yang sangat meyakinkan, membuat malware yang beradaptasi, atau meluncurkan serangan siber skala besar dengan kecepatan dan kompleksitas yang tidak mungkin dilakukan oleh peretas manusia.
  • Penyebaran Informasi Palsu (Deepfakes): Kemampuan AI untuk menghasilkan konten video, audio, dan teks yang sangat realistis memungkinkan manipulasi opini publik, destabilisasi politik, dan pemerasan dengan tingkat keaslian yang hampir sempurna.
  • Senjata Otonom Mematikan (LAWS): Ini adalah Risiko Keamanan AI yang paling sering disorot dalam konteks militer. LAWS adalah senjata yang dapat memilih dan menyerang target tanpa intervensi manusia. Jika AI yang mengendalikan sistem ini dimanipulasi, potensi kesalahan atau serangan yang tidak sah bersifat katastrofik.

Tantangan Regulator dalam Menghadapi Laju Teknologi AI

Salah satu hambatan terbesar dalam memitigasi Bahaya Kecerdasan Buatan adalah kecepatan pengembangan teknologi itu sendiri. Regulator, khususnya di pemerintahan, kesulitan untuk mengikuti laju inovasi yang berlangsung di Silicon Valley.

Schmidt menjelaskan bahwa proses regulasi biasanya lambat, memakan waktu bertahun-tahun untuk disepakati dan diterapkan. Sementara itu, model AI baru dengan kapabilitas yang lebih tinggi dirilis hampir setiap bulan.

Perbedaan kecepatan ini menciptakan celah regulasi yang besar, di mana teknologi berbahaya dapat menyebar sebelum aturan pencegahan sempat dibuat.

Baca Juga

  • Galaxy A77 Muncul! 8GB RAM & 3 Bocoran Spesifikasi Ganas
  • 5 Alasan Utama Kritik OnePlus 15: Kenapa Spesifikasi OnePlus 15 Disebut Mundur?

Advertisement

Di Amerika Serikat dan Eropa, diskusi mengenai regulasi AI sangat intens, tetapi kompleksitas teknologi membuat penentuan batas dan sanksi menjadi pekerjaan yang sangat sulit.

Mengapa Regulasi AI Harus Dipercepat?

Para pakar setuju bahwa pendekatan proaktif sangat diperlukan untuk mengendalikan Risiko Keamanan AI. Fokus regulasi tidak hanya harus pada pelarangan, tetapi juga pada transparansi dan akuntabilitas.

Beberapa aspek yang harus segera diatur mencakup:

Baca Juga

  • 5 Perubahan Besar Kustomisasi Ikon Xiaomi di HyperOS, Mirip iOS 18
  • Teori Baru Mengubah Total Sejarah Asal Usul Manusia: 3 Fakta Mengejutkan

Advertisement

  1. Audit Model: Kewajiban bagi pengembang besar untuk mengizinkan audit independen terhadap model AI mereka sebelum dirilis ke publik, khususnya yang memiliki potensi bahaya tinggi.
  2. Jejak Digital (Watermarking): Menetapkan standar global untuk menanamkan jejak digital pada konten yang dihasilkan AI (seperti deepfakes) agar sumbernya dapat dilacak.
  3. Tanggung Jawab Hukum: Menentukan siapa yang bertanggung jawab secara hukum—pengembang, pengguna, atau AI itu sendiri—jika terjadi kerugian serius akibat manipulasi atau kesalahan AI.

Peran Komunitas Open Source dan Pengembang dalam Mitigasi

Meskipun Schmidt mengakui bahwa model terbuka (open-source) juga rentan diretas, banyak pakar berpendapat bahwa transparansi yang ditawarkan oleh open source justru bisa menjadi bagian dari solusi.

Dengan model yang terbuka, komunitas peneliti keamanan yang lebih luas dapat mengidentifikasi kerentanan dan kelemahan pagar keamanan dengan lebih cepat, sebelum dimanfaatkan oleh pihak jahat.

Sebaliknya, model tertutup yang dikembangkan oleh segelintir perusahaan besar menimbulkan kekhawatiran tentang kurangnya pengawasan eksternal dan potensi bahaya yang tersembunyi. Pengembang memiliki tanggung jawab moral yang besar untuk memastikan bahwa teknologi yang mereka ciptakan tidak disalahgunakan.

Baca Juga

  • 7 Fakta Mencengangkan Misteri Jalur Ular Raksasa di Peru
  • 7 Momen Terbaik MyRepublic Rocket Week 2025: Roketin Transformasi Digital Nasional

Advertisement

Mengutip Schmidt, pertanyaan dasarnya adalah: “Apakah AI dapat dimanipulasi untuk menimbulkan masalah? Tentu saja.” Oleh karena itu, langkah-langkah pencegahan harus segera diambil sebelum potensi ancaman tersebut menjadi kenyataan yang tidak dapat dikendalikan.

Kesimpulan: Menghadapi Kenyataan Bahaya Kecerdasan Buatan

Peringatan dari Eric Schmidt ini berfungsi sebagai lonceng alarm yang mendesak. Dunia tidak bisa lagi menganggap enteng potensi penyalahgunaan dan Risiko Keamanan AI yang ada.

Meskipun janji AI untuk meningkatkan kualitas hidup manusia sangat besar, kita harus menyadari bahwa teknologi ini adalah pedang bermata dua. Jika pagar keamanan dapat diretas, AI dapat diajari apa saja, termasuk cara-cara yang paling merusak.

Baca Juga

  • Fakta Mengejutkan! 600 Tahun Kapal Joseon Ungkap 3 Rahasia Administrasi Kuno
  • 5 Fitur Nothing OS 4.0 Android 16 Hadir di Nothing Phone (3)

Advertisement

Diperlukan kolaborasi global antara pemerintah, akademisi, dan perusahaan teknologi untuk membangun kerangka kerja etis dan regulasi yang kokoh. Tujuannya adalah memastikan bahwa kemajuan AI selalu disertai dengan pengawasan yang ketat demi menjaga keselamatan umat manusia dari Bahaya Kecerdasan Buatan yang ekstrem.


Dapatkan informasi terbaru seputar Gadget, Elektronik, Anime, Game, Tech dan Berita Tekno lainnya setiap hari melalui social media TechnoNesia. Ikuti kami di :
  • Instagram : @technonesia_id
  • Facebook : Technonesia ID
  • X (Twitter) : @technonesia_id
  • Whatsapp Channel : Technonesia.ID
  • Google News : TECHNONESIA
Bahaya AI Eric Schmidt Google Kecerdasan Buatan Teknologi
Share. Copy Link WhatsApp Facebook Twitter LinkedIn Threads Telegram Email Pinterest
Previous Article5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!
Next Article 5 Langkah Mudah Cara Scan Dokumen Lewat WhatsApp, Tak Perlu Aplikasi Lain
Olin Sianturi
  • Website

Olin Sianturi adalah seorang Content Writer di Media TechnoNesia dan GadgetVIVA, berpengalaman dalam menulis artikel informatif dan SEO-friendly. Spesialisasinya mencakup teknologi, gadget, elektronik, game. Dengan gaya penulisan yang menarik dan mudah dipahami, Olin mampu menghadirkan konten berkualitas yang relevan dan bernilai bagi pembaca.

Artikel Terkait

3 Langkah Nonaktifkan Gemini AI di Gmail & Chrome, Jaga Privasi Anda

Olin Sianturi26 November 2025 | 07:38

5 Fakta Mengejutkan Evolusi Ciuman Pertama: Jauh Lebih Awal dari Manusia

Olin Sianturi26 November 2025 | 05:38

3 Pelajaran Pahit dari Valuasi Startup Byju’s Nol: Nasib CEO Byju Raveendran

Olin Sianturi25 November 2025 | 15:38

Kasus Hukum Meta: 4 Fakta Mengejutkan Bukti Zuckerberg Sembunyikan Data Penting

Olin Sianturi25 November 2025 | 13:38

3 Teori Ilmiah Asal Usul Hajar Aswad yang Bikin Peneliti Dunia Penasaran

Olin Sianturi25 November 2025 | 11:38

Top 5 HP Indonesia Q3 2025: 5 Alasan Samsung Rajai Pasar

Olin Sianturi25 November 2025 | 03:38
Pilihan Redaksi
Trending

4 Fakta Menarik The Blackman Family Sebelum Berpisah, Keluarga Viral yang Bikin Heboh!

Olin Sianturi25 Februari 2025 | 07:50

Mengungkap 4 fakta menarik The Blackman Family tentang perjalanan mereka sebagai keluarga viral. Simak selengkapnya…

Jepang vs OpenAI: 3 Kontroversi Sora 2 Ancam Perlindungan Hak Cipta Anime

16 Oktober 2025 | 08:08

Samsung Galaxy Z Flip7 dan Gemini AI: Kombinasi Cerdas yang Bikin Bisnismu Makin Melonjak

20 November 2025 | 07:00

OPPO Reno 15 Resmi Meluncur di Indonesia: Cek Keunggulan dan Spesifikasinya

21 November 2025 | 21:16

5 Alasan Realme GT 8 Pro Jadi Flagship Killer Terbaik Tahun Ini

24 November 2025 | 05:38
Terbaru

3 Langkah Nonaktifkan Gemini AI di Gmail & Chrome, Jaga Privasi Anda

Olin Sianturi26 November 2025 | 07:38

5 Fakta Mengejutkan Evolusi Ciuman Pertama: Jauh Lebih Awal dari Manusia

Olin Sianturi26 November 2025 | 05:38

3 Pelajaran Pahit dari Valuasi Startup Byju’s Nol: Nasib CEO Byju Raveendran

Olin Sianturi25 November 2025 | 15:38

Kasus Hukum Meta: 4 Fakta Mengejutkan Bukti Zuckerberg Sembunyikan Data Penting

Olin Sianturi25 November 2025 | 13:38

3 Teori Ilmiah Asal Usul Hajar Aswad yang Bikin Peneliti Dunia Penasaran

Olin Sianturi25 November 2025 | 11:38
technonesia-ads
TechnoNesia.ID
Facebook X (Twitter) Instagram WhatsApp LinkedIn
  • Tentang Kami
  • Disclaimer
  • Kebijakan Privasi
  • Pedoman Media Siber
© TechnoNesia.ID 2025 | All Rights Reserved

Type above and press Enter to search. Press Esc to cancel.