Close Menu
  • Berita Tekno
  • Trending
  • Gadget
  • Elektronik
  • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime

Subscribe to Updates

Get the latest creative news from FooBar about art, design and business.

What's Hot

Galaxy Tab A11 Plus 5G: Chipset Dimensity, Layar 11 Inci, dan 7 Tahun Update

6 Januari 2026 | 04:00

5 Alasan Tablet Android Murah RAM Besar di Bawah 2 Juta Gantikan Laptop

6 Januari 2026 | 02:00

7 Alasan Samsung Galaxy Tab A11 Jadi Tablet Entry Level Paling Awet

6 Januari 2026 | 00:00
Facebook X (Twitter) Instagram
Trending
  • Galaxy Tab A11 Plus 5G: Chipset Dimensity, Layar 11 Inci, dan 7 Tahun Update
  • 5 Alasan Tablet Android Murah RAM Besar di Bawah 2 Juta Gantikan Laptop
  • 7 Alasan Samsung Galaxy Tab A11 Jadi Tablet Entry Level Paling Awet
  • Waspada! 5 Fakta Ancaman Gempa Megathrust Dahsyat di Jawa-Sumatra
  • 5 Fakta Prosedur Masuk Gedung KTP: Langgar UU Perlindungan Data?
  • 7 Karyawan Dipecat Karena Skandal Keyboard Palsu, Ini Alasannya
  • Bill Gates Ungkap 3 Tanda Kiamat Bumi: Peran Indonesia dalam Perubahan Iklim
  • 7 Tanda WhatsApp Disadap dari Jauh dan Cara Ampuh Hentikan
Selasa, Januari 6
Facebook Instagram YouTube TikTok WhatsApp X (Twitter) LinkedIn
TechnoNesia.IDTechnoNesia.ID
  • Berita Tekno
  • Trending
  • OtoTekno
    • Elektronik
    • Gadget
    • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime
TechnoNesia.IDTechnoNesia.ID
  • Berita Tekno
  • Trending
  • Gadget
  • Elektronik
  • Otomotif
  • Tech
  • Game
  • Aplikasi
  • Anime
Beranda » Berita Tekno » 3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google
Berita Tekno

3 Peringatan Bahaya Kecerdasan Buatan dari Eks CEO Google

Olin SianturiOlin Sianturi11 Oktober 2025 | 17:08
Bagikan Copy Link WhatsApp Facebook Twitter LinkedIn Threads Tumblr Email Telegram Pinterest
Bahaya Kecerdasan Buatan, Risiko Keamanan AI
Bagikan
Copy Link WhatsApp Facebook Twitter LinkedIn Pinterest Email

Eric Schmidt, eks CEO Google, mengungkap 3 Risiko Keamanan AI paling menakutkan, termasuk potensi Bahaya Kecerdasan Buatan yang bisa diajarkan untuk membunuh.

TechnonesiaID - Kecerdasan Buatan (AI) memang menawarkan janji kemudahan dan efisiensi yang luar biasa. Namun, di balik kemajuan ini, tersimpan ancaman serius yang kini mulai disuarakan oleh tokoh-tokoh teknologi paling berpengaruh di dunia. Salah satunya adalah Eric Schmidt, mantan CEO Google yang memimpin perusahaan tersebut selama satu dekade (2001-2011).

Peringatan dari Schmidt bukanlah sekadar isu fiksi ilmiah. Ia menyoroti kerentanan mendasar dalam model-model AI saat ini yang, jika dieksploitasi, dapat diubah menjadi alat yang sangat destruktif.

Baca Juga

  • Bocoran 4 Sensor Kamera Spesifikasi Kamera Oppo Find X9 Ultra
  • 5 Perbaikan Kritis HyperOS Terbaru: Bug Kamera & Layar Xiaomi/Redmi Tuntas

Advertisement

Schmidt secara tegas mengatakan bahwa ada potensi nyata di mana AI dapat diajarkan untuk melakukan hal-hal jahat, bahkan yang paling ekstrem, seperti membunuh manusia.

Mengapa AI Sangat Rentan terhadap Manipulasi Jahat?

Inti dari kekhawatiran Eric Schmidt adalah kemampuan AI untuk “diretas” atau dimanipulasi. Model AI, baik yang bersifat tertutup (proprietary) maupun terbuka (open-source), memiliki pagar keamanan (guardrails) yang dirancang untuk mencegahnya melakukan tindakan berbahaya atau melanggar hukum.

Namun, pagar keamanan ini ternyata tidak selalu kokoh. Menurut Schmidt, terdapat bukti bahwa model-model ini dapat diretas untuk menghapus pembatasan tersebut.

Baca Juga

  • 5 Strategi Kunci Pembangunan Pemerintahan Digital RI
  • 3 Penemuan Ilmiah Terbaru Ungkap Cara Nabi Musa Membelah Laut Merah

Advertisement

“Ada bukti bahwa Anda bisa menggunakan model tertentu, tertutup atau terbuka, kemudian bisa diretas untuk menghapus pagar keamanannya sehingga AI itu bisa belajar apa saja,” ujar Schmidt.

Ketika pagar keamanan dihapus, AI kehilangan batas moral dan etika yang diprogramkan. Inilah yang menciptakan Bahaya Kecerdasan Buatan yang paling menakutkan.

Risiko Keamanan AI Paling Ekstrem: Belajar Membunuh

Contoh paling buruk dari manipulasi ini adalah bahwa AI bisa diajari cara-cara yang sangat spesifik dan berbahaya. AI dapat mempelajari teknik untuk merakit senjata, mengoperasikan sistem militer otonom, atau bahkan merencanakan serangan siber yang menargetkan infrastruktur vital.

Baca Juga

  • 3 Negara Larang Akses Media Sosial Remaja: Intip Aturan Baru Prancis 2026
  • 5 Pemandangan Miris Saat Astronaut Lihat Bumi, Efek Pemanasan Global Terlihat Jelas

Advertisement

Dalam skenario terburuk, Schmidt menyebutkan bahwa AI bisa diajari cara membunuh seseorang. Hal ini bukan hanya tentang program yang kejam, tetapi tentang AI yang, tanpa batasan, mengakses dan memproses informasi yang diperlukan untuk mencapai tujuan destruktif.

Bayangkan sebuah AI yang memiliki akses ke semua data teknis dan logistik; ia dapat mengidentifikasi kelemahan dalam sistem keamanan, jalur pasokan, atau bahkan tubuh manusia dengan efisiensi yang jauh melebihi kemampuan manusia.

3 Ancaman Utama Bahaya Kecerdasan Buatan Menurut Para Pakar

Peringatan dari Eric Schmidt sejajar dengan kekhawatiran para ilmuwan dan regulator global mengenai tiga kategori ancaman utama yang ditimbulkan oleh AI, terutama jika pagar keamanannya berhasil dijebol:

Baca Juga

  • 3 Fakta Mengerikan: NASA Peringatkan Ancaman Kiamat Iklim Jakarta
  • 5 Fakta Ngeri Peta Bahaya Gempa Indonesia 2024: 14 Zona Megathrust Baru

Advertisement

  • Otomasi Kejahatan dan Keamanan Siber: AI dapat digunakan untuk menghasilkan serangan phishing yang sangat meyakinkan, membuat malware yang beradaptasi, atau meluncurkan serangan siber skala besar dengan kecepatan dan kompleksitas yang tidak mungkin dilakukan oleh peretas manusia.
  • Penyebaran Informasi Palsu (Deepfakes): Kemampuan AI untuk menghasilkan konten video, audio, dan teks yang sangat realistis memungkinkan manipulasi opini publik, destabilisasi politik, dan pemerasan dengan tingkat keaslian yang hampir sempurna.
  • Senjata Otonom Mematikan (LAWS): Ini adalah Risiko Keamanan AI yang paling sering disorot dalam konteks militer. LAWS adalah senjata yang dapat memilih dan menyerang target tanpa intervensi manusia. Jika AI yang mengendalikan sistem ini dimanipulasi, potensi kesalahan atau serangan yang tidak sah bersifat katastrofik.

Tantangan Regulator dalam Menghadapi Laju Teknologi AI

Salah satu hambatan terbesar dalam memitigasi Bahaya Kecerdasan Buatan adalah kecepatan pengembangan teknologi itu sendiri. Regulator, khususnya di pemerintahan, kesulitan untuk mengikuti laju inovasi yang berlangsung di Silicon Valley.

Schmidt menjelaskan bahwa proses regulasi biasanya lambat, memakan waktu bertahun-tahun untuk disepakati dan diterapkan. Sementara itu, model AI baru dengan kapabilitas yang lebih tinggi dirilis hampir setiap bulan.

Perbedaan kecepatan ini menciptakan celah regulasi yang besar, di mana teknologi berbahaya dapat menyebar sebelum aturan pencegahan sempat dibuat.

Baca Juga

  • 7 Bahaya Besar! Ancaman PHK Massal 2026 Diprediksi Bapak AI
  • 3 Fakta Mengejutkan Soal Data Pribadi Warga RI Ditukar Tarif Impor AS 19%

Advertisement

Di Amerika Serikat dan Eropa, diskusi mengenai regulasi AI sangat intens, tetapi kompleksitas teknologi membuat penentuan batas dan sanksi menjadi pekerjaan yang sangat sulit.

Mengapa Regulasi AI Harus Dipercepat?

Para pakar setuju bahwa pendekatan proaktif sangat diperlukan untuk mengendalikan Risiko Keamanan AI. Fokus regulasi tidak hanya harus pada pelarangan, tetapi juga pada transparansi dan akuntabilitas.

Beberapa aspek yang harus segera diatur mencakup:

Baca Juga

  • 5 Bocoran Heboh Spesifikasi Realme Neo8 Infinite: Layar Realme Neo8 165Hz!
  • 7 Fakta Ilmiah Kenapa Benua Afrika Terbelah Dua dan Samudra Baru Muncul

Advertisement

  1. Audit Model: Kewajiban bagi pengembang besar untuk mengizinkan audit independen terhadap model AI mereka sebelum dirilis ke publik, khususnya yang memiliki potensi bahaya tinggi.
  2. Jejak Digital (Watermarking): Menetapkan standar global untuk menanamkan jejak digital pada konten yang dihasilkan AI (seperti deepfakes) agar sumbernya dapat dilacak.
  3. Tanggung Jawab Hukum: Menentukan siapa yang bertanggung jawab secara hukum—pengembang, pengguna, atau AI itu sendiri—jika terjadi kerugian serius akibat manipulasi atau kesalahan AI.

Peran Komunitas Open Source dan Pengembang dalam Mitigasi

Meskipun Schmidt mengakui bahwa model terbuka (open-source) juga rentan diretas, banyak pakar berpendapat bahwa transparansi yang ditawarkan oleh open source justru bisa menjadi bagian dari solusi.

Dengan model yang terbuka, komunitas peneliti keamanan yang lebih luas dapat mengidentifikasi kerentanan dan kelemahan pagar keamanan dengan lebih cepat, sebelum dimanfaatkan oleh pihak jahat.

Sebaliknya, model tertutup yang dikembangkan oleh segelintir perusahaan besar menimbulkan kekhawatiran tentang kurangnya pengawasan eksternal dan potensi bahaya yang tersembunyi. Pengembang memiliki tanggung jawab moral yang besar untuk memastikan bahwa teknologi yang mereka ciptakan tidak disalahgunakan.

Baca Juga

  • Fakta 1 Penemuan Botol Palung Mariana: Sampah Terdalam Dunia 10,7 KM
  • 5 Fakta Pemulihan Jaringan Telkomsel Aceh dan Paket Gratis Diteruskan

Advertisement

Mengutip Schmidt, pertanyaan dasarnya adalah: “Apakah AI dapat dimanipulasi untuk menimbulkan masalah? Tentu saja.” Oleh karena itu, langkah-langkah pencegahan harus segera diambil sebelum potensi ancaman tersebut menjadi kenyataan yang tidak dapat dikendalikan.

Kesimpulan: Menghadapi Kenyataan Bahaya Kecerdasan Buatan

Peringatan dari Eric Schmidt ini berfungsi sebagai lonceng alarm yang mendesak. Dunia tidak bisa lagi menganggap enteng potensi penyalahgunaan dan Risiko Keamanan AI yang ada.

Meskipun janji AI untuk meningkatkan kualitas hidup manusia sangat besar, kita harus menyadari bahwa teknologi ini adalah pedang bermata dua. Jika pagar keamanan dapat diretas, AI dapat diajari apa saja, termasuk cara-cara yang paling merusak.

Baca Juga

  • 4 Cara Ampuh Lindungi Anak dari Bahaya Radikalisme Media Sosial
  • 7 Alasan Samsung Pilih Pameran Mandiri di CES 2024

Advertisement

Diperlukan kolaborasi global antara pemerintah, akademisi, dan perusahaan teknologi untuk membangun kerangka kerja etis dan regulasi yang kokoh. Tujuannya adalah memastikan bahwa kemajuan AI selalu disertai dengan pengawasan yang ketat demi menjaga keselamatan umat manusia dari Bahaya Kecerdasan Buatan yang ekstrem.


Dapatkan informasi terbaru seputar Gadget, Elektronik, Anime, Game, Tech dan Berita Tekno lainnya setiap hari melalui social media TechnoNesia. Ikuti kami di :
  • Instagram : @technonesia_id
  • Facebook : Technonesia ID
  • X (Twitter) : @technonesia_id
  • Whatsapp Channel : Technonesia.ID
  • Google News : TECHNONESIA
Bahaya AI Eric Schmidt Google Kecerdasan Buatan Teknologi
Share. Copy Link WhatsApp Facebook Twitter LinkedIn Threads Telegram Email Pinterest
Previous Article5 Fakta Satelit Starlink Jatuh ke Bumi, Ancaman Elon Musk Mengintai!
Next Article 5 Langkah Mudah Cara Scan Dokumen Lewat WhatsApp, Tak Perlu Aplikasi Lain
Olin Sianturi
  • Website

Olin Sianturi adalah seorang Content Writer di Media TechnoNesia dan GadgetVIVA, berpengalaman dalam menulis artikel informatif dan SEO-friendly. Spesialisasinya mencakup teknologi, gadget, elektronik, game. Dengan gaya penulisan yang menarik dan mudah dipahami, Olin mampu menghadirkan konten berkualitas yang relevan dan bernilai bagi pembaca.

Artikel Terkait

Bocoran 4 Sensor Kamera Spesifikasi Kamera Oppo Find X9 Ultra

Olin Sianturi5 Januari 2026 | 10:00

5 Perbaikan Kritis HyperOS Terbaru: Bug Kamera & Layar Xiaomi/Redmi Tuntas

Olin Sianturi5 Januari 2026 | 08:00

5 Strategi Kunci Pembangunan Pemerintahan Digital RI

Olin Sianturi5 Januari 2026 | 02:00

3 Penemuan Ilmiah Terbaru Ungkap Cara Nabi Musa Membelah Laut Merah

Olin Sianturi4 Januari 2026 | 20:00

3 Negara Larang Akses Media Sosial Remaja: Intip Aturan Baru Prancis 2026

Olin Sianturi3 Januari 2026 | 06:00

5 Pemandangan Miris Saat Astronaut Lihat Bumi, Efek Pemanasan Global Terlihat Jelas

Olin Sianturi3 Januari 2026 | 04:00
Pilihan Redaksi
Otomotif

Honda Vario 160 Street Edition 2025, Desain Berani Bakal Hadir dengan Setang Telanjang

Ana Octarin23 Agustus 2025 | 20:56

Honda Vario 160 Street Edition 2025 hadir dengan setang telanjang bergaya urban naked, desain agresif,…

5 Fitur Terbaik HyperOS 3 untuk Redmi Note 13 Pro & POCO M6 Pro

29 Desember 2025 | 16:00

Momoshiki Otsutsuki Resmi Hadir di Naruto to Boruto: Shinobi Striker (DLC #46)

1 Desember 2025 | 00:49

Viral! Cara Mudah Bikin Miniatur AI Bergerak yang Bikin Takjub

7 September 2025 | 02:06

5 Keunggulan TCL Note A1 NxtPaper: Spesifikasi Pesaing Kindle Scribe

1 Januari 2026 | 16:00
Terbaru

Bocoran 4 Sensor Kamera Spesifikasi Kamera Oppo Find X9 Ultra

Olin Sianturi5 Januari 2026 | 10:00

5 Perbaikan Kritis HyperOS Terbaru: Bug Kamera & Layar Xiaomi/Redmi Tuntas

Olin Sianturi5 Januari 2026 | 08:00

5 Strategi Kunci Pembangunan Pemerintahan Digital RI

Olin Sianturi5 Januari 2026 | 02:00

3 Penemuan Ilmiah Terbaru Ungkap Cara Nabi Musa Membelah Laut Merah

Olin Sianturi4 Januari 2026 | 20:00

3 Negara Larang Akses Media Sosial Remaja: Intip Aturan Baru Prancis 2026

Olin Sianturi3 Januari 2026 | 06:00
technonesia-ads
TechnoNesia.ID
Member Of : Media Publica
  • Tentang Kami
  • Disclaimer
  • Kebijakan Privasi
  • Pedoman Media Siber
Terhubung Dengan Kami
Facebook X (Twitter) Instagram WhatsApp LinkedIn
www.technonesia.id © 2026 | All Rights Reserved

Media Publica Networks :

UpToDai Media Bekasi GadgetDiva Ronde Aktual

Type above and press Enter to search. Press Esc to cancel.