Close Menu
  • Berita Tekno
  • Trending
  • Gadget
  • Elektronik
  • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime

Subscribe to Updates

Get the latest creative news from FooBar about art, design and business.

What's Hot

3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google

11 Oktober 2025 | 17:08

5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!

11 Oktober 2025 | 15:08

4 Faktor Utama Bencana Chernobyl: Pelajaran Tragedi Nuklir Paling Penting

11 Oktober 2025 | 13:08
Facebook X (Twitter) Instagram
Trending
  • 3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google
  • 5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!
  • 4 Faktor Utama Bencana Chernobyl: Pelajaran Tragedi Nuklir Paling Penting
  • 5 Fakta Serangan Hacker Oracle Fatal, Ratusan Perusahaan Terkena Dampak
  • 5 Fakta Skandal Diskon Palsu: Denda E-Commerce Terbesar Triliunan!
  • 5 Fakta Terbaru Masalah Temu di Eropa: Raja Ecommerce China Diperiksa Jerman
  • 4 Langkah Cara Lacak Lokasi Google Maps Teman dengan Nomor HP
  • 5 Fakta Mengejutkan Omar Yaghi, Peraih Nobel Keturunan Pengungsi Palestina
Sabtu, Oktober 11
Facebook Instagram YouTube TikTok WhatsApp X (Twitter) LinkedIn
TechnoNesia.IDTechnoNesia.ID
  • Berita Tekno
  • Trending
  • OtoTekno
    • Elektronik
    • Gadget
    • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime
TechnoNesia.IDTechnoNesia.ID
  • Berita Tekno
  • Trending
  • Gadget
  • Elektronik
  • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime
Beranda » Berita Tekno » 3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google
Berita Tekno

3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google

Olin SianturiOlin Sianturi11 Oktober 2025 | 17:08
Bagikan Copy Link WhatsApp Facebook Twitter LinkedIn Threads Tumblr Email Telegram Pinterest
Bahaya Kecerdasan Buatan, Risiko Keamanan AI
Bagikan
Copy Link WhatsApp Facebook Twitter LinkedIn Pinterest Email

Eric Schmidt, eks CEO Google, mengungkap 3 Risiko Keamanan AI paling menakutkan, termasuk potensi Bahaya Kecerdasan Buatan yang bisa diajarkan untuk membunuh.

TechnonesiaID - Kecerdasan Buatan (AI) memang menawarkan janji kemudahan dan efisiensi yang luar biasa. Namun, di balik kemajuan ini, tersimpan ancaman serius yang kini mulai disuarakan oleh tokoh-tokoh teknologi paling berpengaruh di dunia. Salah satunya adalah Eric Schmidt, mantan CEO Google yang memimpin perusahaan tersebut selama satu dekade (2001-2011).

Peringatan dari Schmidt bukanlah sekadar isu fiksi ilmiah. Ia menyoroti kerentanan mendasar dalam model-model AI saat ini yang, jika dieksploitasi, dapat diubah menjadi alat yang sangat destruktif.

Baca Juga

  • 5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!
  • 5 Fakta Serangan Hacker Oracle Fatal, Ratusan Perusahaan Terkena Dampak

Advertisement

Schmidt secara tegas mengatakan bahwa ada potensi nyata di mana AI dapat diajarkan untuk melakukan hal-hal jahat, bahkan yang paling ekstrem, seperti membunuh manusia.

Mengapa AI Sangat Rentan terhadap Manipulasi Jahat?

Inti dari kekhawatiran Eric Schmidt adalah kemampuan AI untuk “diretas” atau dimanipulasi. Model AI, baik yang bersifat tertutup (proprietary) maupun terbuka (open-source), memiliki pagar keamanan (guardrails) yang dirancang untuk mencegahnya melakukan tindakan berbahaya atau melanggar hukum.

Namun, pagar keamanan ini ternyata tidak selalu kokoh. Menurut Schmidt, terdapat bukti bahwa model-model ini dapat diretas untuk menghapus pembatasan tersebut.

Baca Juga

  • 5 Fakta Skandal Diskon Palsu: Denda E-Commerce Terbesar Triliunan!
  • 5 Fakta Terbaru Masalah Temu di Eropa: Raja Ecommerce China Diperiksa Jerman

Advertisement

“Ada bukti bahwa Anda bisa menggunakan model tertentu, tertutup atau terbuka, kemudian bisa diretas untuk menghapus pagar keamanannya sehingga AI itu bisa belajar apa saja,” ujar Schmidt.

Ketika pagar keamanan dihapus, AI kehilangan batas moral dan etika yang diprogramkan. Inilah yang menciptakan Bahaya Kecerdasan Buatan yang paling menakutkan.

Risiko Keamanan AI Paling Ekstrem: Belajar Membunuh

Contoh paling buruk dari manipulasi ini adalah bahwa AI bisa diajari cara-cara yang sangat spesifik dan berbahaya. AI dapat mempelajari teknik untuk merakit senjata, mengoperasikan sistem militer otonom, atau bahkan merencanakan serangan siber yang menargetkan infrastruktur vital.

Baca Juga

  • 5 Fakta Mengejutkan Omar Yaghi, Peraih Nobel Keturunan Pengungsi Palestina
  • 7 Alasan NextDev Telkomsel Tahun Ke-11 Jadi Inkubator Technopreneur AI

Advertisement

Dalam skenario terburuk, Schmidt menyebutkan bahwa AI bisa diajari cara membunuh seseorang. Hal ini bukan hanya tentang program yang kejam, tetapi tentang AI yang, tanpa batasan, mengakses dan memproses informasi yang diperlukan untuk mencapai tujuan destruktif.

Bayangkan sebuah AI yang memiliki akses ke semua data teknis dan logistik; ia dapat mengidentifikasi kelemahan dalam sistem keamanan, jalur pasokan, atau bahkan tubuh manusia dengan efisiensi yang jauh melebihi kemampuan manusia.

3 Ancaman Utama Bahaya Kecerdasan Buatan Menurut Para Pakar

Peringatan dari Eric Schmidt sejajar dengan kekhawatiran para ilmuwan dan regulator global mengenai tiga kategori ancaman utama yang ditimbulkan oleh AI, terutama jika pagar keamanannya berhasil dijebol:

Baca Juga

  • 5 Fakta Terbaru Registrasi Biometrik Telkomsel: Solusi Keamanan Data Pelanggan
  • 7 Alasan Mengapa Netizen China Bikin Amerika Parno: Blokir ChatGPT!

Advertisement

  • Otomasi Kejahatan dan Keamanan Siber: AI dapat digunakan untuk menghasilkan serangan phishing yang sangat meyakinkan, membuat malware yang beradaptasi, atau meluncurkan serangan siber skala besar dengan kecepatan dan kompleksitas yang tidak mungkin dilakukan oleh peretas manusia.
  • Penyebaran Informasi Palsu (Deepfakes): Kemampuan AI untuk menghasilkan konten video, audio, dan teks yang sangat realistis memungkinkan manipulasi opini publik, destabilisasi politik, dan pemerasan dengan tingkat keaslian yang hampir sempurna.
  • Senjata Otonom Mematikan (LAWS): Ini adalah Risiko Keamanan AI yang paling sering disorot dalam konteks militer. LAWS adalah senjata yang dapat memilih dan menyerang target tanpa intervensi manusia. Jika AI yang mengendalikan sistem ini dimanipulasi, potensi kesalahan atau serangan yang tidak sah bersifat katastrofik.

Tantangan Regulator dalam Menghadapi Laju Teknologi AI

Salah satu hambatan terbesar dalam memitigasi Bahaya Kecerdasan Buatan adalah kecepatan pengembangan teknologi itu sendiri. Regulator, khususnya di pemerintahan, kesulitan untuk mengikuti laju inovasi yang berlangsung di Silicon Valley.

Schmidt menjelaskan bahwa proses regulasi biasanya lambat, memakan waktu bertahun-tahun untuk disepakati dan diterapkan. Sementara itu, model AI baru dengan kapabilitas yang lebih tinggi dirilis hampir setiap bulan.

Technonesia Ad Banner

Perbedaan kecepatan ini menciptakan celah regulasi yang besar, di mana teknologi berbahaya dapat menyebar sebelum aturan pencegahan sempat dibuat.

Baca Juga

  • 5 Fakta Temuan HP Ilegal di Bea Cukai Soetta, Cek Dampak IMEI Ponsel!
  • 5 Fakta Menarik Penampakan Supermoon 2025: Kapan dan Cara Melihatnya?

Advertisement

Di Amerika Serikat dan Eropa, diskusi mengenai regulasi AI sangat intens, tetapi kompleksitas teknologi membuat penentuan batas dan sanksi menjadi pekerjaan yang sangat sulit.

Mengapa Regulasi AI Harus Dipercepat?

Para pakar setuju bahwa pendekatan proaktif sangat diperlukan untuk mengendalikan Risiko Keamanan AI. Fokus regulasi tidak hanya harus pada pelarangan, tetapi juga pada transparansi dan akuntabilitas.

Beberapa aspek yang harus segera diatur mencakup:

Baca Juga

  • 3 Alasan Kuat Indosat Tak Ikut Pendaftaran Internet 100 Mbps
  • Bos Besar Bocorkan Data: 5 Alasan Pengguna ChatGPT Indonesia Meningkat Drastis!

Advertisement

  1. Audit Model: Kewajiban bagi pengembang besar untuk mengizinkan audit independen terhadap model AI mereka sebelum dirilis ke publik, khususnya yang memiliki potensi bahaya tinggi.
  2. Jejak Digital (Watermarking): Menetapkan standar global untuk menanamkan jejak digital pada konten yang dihasilkan AI (seperti deepfakes) agar sumbernya dapat dilacak.
  3. Tanggung Jawab Hukum: Menentukan siapa yang bertanggung jawab secara hukum—pengembang, pengguna, atau AI itu sendiri—jika terjadi kerugian serius akibat manipulasi atau kesalahan AI.

Peran Komunitas Open Source dan Pengembang dalam Mitigasi

Meskipun Schmidt mengakui bahwa model terbuka (open-source) juga rentan diretas, banyak pakar berpendapat bahwa transparansi yang ditawarkan oleh open source justru bisa menjadi bagian dari solusi.

Dengan model yang terbuka, komunitas peneliti keamanan yang lebih luas dapat mengidentifikasi kerentanan dan kelemahan pagar keamanan dengan lebih cepat, sebelum dimanfaatkan oleh pihak jahat.

Sebaliknya, model tertutup yang dikembangkan oleh segelintir perusahaan besar menimbulkan kekhawatiran tentang kurangnya pengawasan eksternal dan potensi bahaya yang tersembunyi. Pengembang memiliki tanggung jawab moral yang besar untuk memastikan bahwa teknologi yang mereka ciptakan tidak disalahgunakan.

Baca Juga

  • 7 Fakta Mengejutkan Penghargaan Cincin Emas Instagram: Centang Biru Minggir!
  • Peringatan Jensen Huang: 3 Bukti Persaingan Teknologi AS-China Kian Mengerikan

Advertisement

Mengutip Schmidt, pertanyaan dasarnya adalah: “Apakah AI dapat dimanipulasi untuk menimbulkan masalah? Tentu saja.” Oleh karena itu, langkah-langkah pencegahan harus segera diambil sebelum potensi ancaman tersebut menjadi kenyataan yang tidak dapat dikendalikan.

Kesimpulan: Menghadapi Kenyataan Bahaya Kecerdasan Buatan

Peringatan dari Eric Schmidt ini berfungsi sebagai lonceng alarm yang mendesak. Dunia tidak bisa lagi menganggap enteng potensi penyalahgunaan dan Risiko Keamanan AI yang ada.

Meskipun janji AI untuk meningkatkan kualitas hidup manusia sangat besar, kita harus menyadari bahwa teknologi ini adalah pedang bermata dua. Jika pagar keamanan dapat diretas, AI dapat diajari apa saja, termasuk cara-cara yang paling merusak.

Baca Juga

  • 5 Fakta Sapi Gama Jenis Baru UGM, Hasil 13 Tahun Penelitian Hebat
  • BMKG Warning! 7 Fakta Supermoon 7 Oktober 2025 dan Potensi Banjir Rob Jakarta

Advertisement

Diperlukan kolaborasi global antara pemerintah, akademisi, dan perusahaan teknologi untuk membangun kerangka kerja etis dan regulasi yang kokoh. Tujuannya adalah memastikan bahwa kemajuan AI selalu disertai dengan pengawasan yang ketat demi menjaga keselamatan umat manusia dari Bahaya Kecerdasan Buatan yang ekstrem.


Dapatkan informasi terbaru seputar Gadget, Elektronik, Anime, Game, Tech dan Berita Tekno lainnya setiap hari melalui social media TechnoNesia. Ikuti kami di :
  • Instagram : @technonesia_id
  • Facebook : Technonesia ID
  • X (Twitter) : @technonesia_id
  • Whatsapp Channel : Technonesia.ID
  • Google News : TECHNONESIA

Bahaya AI Eric Schmidt Google Kecerdasan Buatan Teknologi
Share. Copy Link WhatsApp Facebook Twitter LinkedIn Threads Telegram Email Pinterest
Previous Article5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!
Olin Sianturi
  • Website

Olin Sianturi adalah seorang Content Writer di Media TechnoNesia dan GadgetVIVA, berpengalaman dalam menulis artikel informatif dan SEO-friendly. Spesialisasinya mencakup teknologi, gadget, elektronik, game. Dengan gaya penulisan yang menarik dan mudah dipahami, Olin mampu menghadirkan konten berkualitas yang relevan dan bernilai bagi pembaca.

Artikel Terkait

5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!

Olin Sianturi11 Oktober 2025 | 15:08

5 Fakta Serangan Hacker Oracle Fatal, Ratusan Perusahaan Terkena Dampak

Olin Sianturi11 Oktober 2025 | 11:08

5 Fakta Skandal Diskon Palsu: Denda E-Commerce Terbesar Triliunan!

Olin Sianturi11 Oktober 2025 | 09:08

5 Fakta Terbaru Masalah Temu di Eropa: Raja Ecommerce China Diperiksa Jerman

Olin Sianturi11 Oktober 2025 | 07:08

5 Fakta Mengejutkan Omar Yaghi, Peraih Nobel Keturunan Pengungsi Palestina

Olin Sianturi11 Oktober 2025 | 03:08

7 Alasan NextDev Telkomsel Tahun Ke-11 Jadi Inkubator Technopreneur AI

Olin Sianturi10 Oktober 2025 | 23:08
Pilihan Redaksi
Gadget

Waspada! Ini 5 Bahaya Jarang Update Software HP di iPhone & Android

Iphan S30 September 2025 | 20:04

Sering menunda update? Ketahui 5 bahaya jarang update software HP, dari ancaman hacker hingga HP…

Motorola Moto G06 Power Rilis 7 Oktober: Baterai 7000mAh Tahan Hingga 3 Hari!

6 Oktober 2025 | 01:33

5 Alasan Mengapa Perbandingan Xiaomi 15T Pro vs 15T Begitu Ketat

6 Oktober 2025 | 05:37

Rilis di RI! Intip 5 Fitur Terbaik dan Harga HUAWEI WATCH GT 6 serta Pura 80 Series

10 Oktober 2025 | 19:08

5 Pilihan Terbaik Tema iOS Xiaomi HyperOS, Gratis! Tampilan Jadi Mirip iPhone

26 Februari 2025 | 06:29
Terbaru

5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!

Olin Sianturi11 Oktober 2025 | 15:08

5 Fakta Serangan Hacker Oracle Fatal, Ratusan Perusahaan Terkena Dampak

Olin Sianturi11 Oktober 2025 | 11:08

5 Fakta Skandal Diskon Palsu: Denda E-Commerce Terbesar Triliunan!

Olin Sianturi11 Oktober 2025 | 09:08

5 Fakta Terbaru Masalah Temu di Eropa: Raja Ecommerce China Diperiksa Jerman

Olin Sianturi11 Oktober 2025 | 07:08

5 Fakta Mengejutkan Omar Yaghi, Peraih Nobel Keturunan Pengungsi Palestina

Olin Sianturi11 Oktober 2025 | 03:08
technonesia-ads
TechnoNesia.ID Logo
Member Of : Media Publica Logo
  • Tentang Kami
  • Disclaimer
  • Kebijakan Privasi
  • Pedoman Media Siber
Facebook X (Twitter) Instagram WhatsApp LinkedIn
© TechnoNesia.ID 2025 | All Rights Reserved

Media Publica Networks :

UpToDai Logo Media Bekasi Logo GadgetDiva Logo Ronde Aktual Logo

Type above and press Enter to search. Press Esc to cancel.

Advertisement