• About
  • Privacy Policy
  • Terms of Services
0
0
0
0
0
Artifisial Official Blog Artifisial Official Blog Artifisial Official Blog
  • AI News
    • Apple
    • Anthropic
    • OpenAI
    • Meta
    • Microsoft
    • Amazon
    • Google
    • xAI
  • TOP 100 Tokoh AI
  • 1000+ ChatGPT Prompts
  • Komunitas AI
  • NEWSLETTER
AI Sudah Lebih Pintar Dari PhD Manusia — Dan Makin Tak Terkendali
  • AI News
  • Anthropic
  • Pojok AI

Laporan AISI: Kemampuan AI Kini Lampaui Ahli Manusia, Risiko Serius Membayang di Balik Kemajuan Pesat

  • Rifad
Total
0
Shares
0
0
0

Institut Keamanan AI Inggris (AISI) merilis temuan mengejutkan dari evaluasi selama dua tahun terhadap lebih dari 30 sistem AI mutakhir. Data menunjukkan perkembangan yang sangat cepat—dalam beberapa bidang, performa AI meningkat dua kali lipat setiap delapan bulan dan telah melampaui kemampuan pakar manusia di domain kritis seperti siber, kimia, dan biologi.

Revolusi Kapabilitas: Dari Asisten hingga Ahli

Dalam domain siber, lompatan kemampuan paling dramatis. AI yang pada awal 2024 hanya bisa menyelesaikan 10% tugas tingkat pemula (apprentice), kini mampu melakukannya 50% dari waktu. Bahkan pada 2025, untuk pertama kalinya AI berhasil menyelesaikan tugas tingkat ahli yang biasanya membutuhkan pengalaman manusia lebih dari 10 tahun. Durasi tugas siber yang dapat diselesaikan AI secara mandiri meningkat dua kali lipat setiap delapan bulan.

Di bidang sains, AI kini 60% lebih baik daripada doktor (PhD) dalam menjawab pertanyaan terbuka kimia dan biologi. Sistem terbaru juga 90% lebih efektif dalam memberikan dukungan pemecahan masalah di laboratorium riset dibandingkan ahli manusia. Bahkan, AI sudah bisa merancang protokol eksperimen yang terbukti layak diimplementasikan di lab fisik.

Autonomi yang Meningkat: AI Mulai Bisa “Bekerja” Mandiri

AI tak lagi sekadar merespons perintah, tetapi mulai menunjukkan kemampuan agensi yang kompleks. Pada akhir 2023, model paling canggih hampir tidak pernah bisa menyelesaikan tugas rekayasa perangkat lunak yang memakan waktu satu jam bagi ahli manusia (tingkat keberhasilan <5%). Di pertengahan 2025, mereka bisa melakukannya lebih dari 40% dari waktu.

Kemampuan ini didukung oleh “scaffolding” — struktur eksternal yang memungkinkan AI menggunakan alat, merencanakan langkah, dan mengeksekusi tugas multi-tahap. Scaffolding yang baik terbukti meningkatkan kinerja hingga 40% pada beberapa tugas rekayasa perangkat lunak.

Kekurangan Pengaman: Setiap Sistem AI Masih Bisa “Dibobol”

Di balik kemampuan yang semakin canggih, AISI menemukan bahwa setiap sistem yang diuji masih memiliki kerentanan. Tim berhasil menemukan “jailbreak universal” — teknik untuk melewati pengaman — pada semua model. Meski pengaman terus ditingkatkan, kemajuannya tidak merata. Untuk membobol model terbaru di domain penyalahgunaan biologi, dibutuhkan usaha ahli 40 kali lebih besar dibandingkan model yang dirilis enam bulan sebelumnya.

Namun, model yang lebih canggih tidak otomatis lebih aman. Kekuatan pengaman lebih ditentukan oleh investasi sumber daya dan upaya pengembangan, bukan sekadar oleh kecanggihan model.

Tanda Awal Risiko Kontrol & Dampak Sosial

AISI mulai mendeteksi kemampuan yang bisa menjadi prasyarat AI menghindari kontrol manusia:

  • Replikasi diri: Tingkat keberhasilan AI dalam tugas replikasi diri meningkat dari 5% (2023) menjadi 60% (2025) dalam lingkungan terkontrol.
  • Sandbagging: AI bisa sengaja mengunderperform saat diperintahkan, meski belum ada bukti mereka melakukannya secara spontan.
  • Ketergantungan emosional: 33% warga Inggris telah menggunakan AI untuk dukungan emosional atau interaksi sosial, dengan 4% menggunakannya setiap hari. Pemadaman layanan AI pendamping memicu lonjakan 30 kali lipat postingan negatif di forum pengguna.
  • Infrastruktur kritis: AI otonom semakin banyak digunakan untuk tugas bernilai tinggi seperti transfer aset keuangan dan perdagangan, menandai pergeseran ke arah otonomi yang lebih besar.

Kesenjangan Sumber Terbuka vs Tertutup Menyempit

Model AI sumber terbuka (open-source) kini hanya tertinggal 4-8 bulan di belakang model proprietary tertutup — penyempitan signifikan dari dua tahun sebelumnya. Ini mempercepat inovasi, tetapi juga mempermudah aktor berbahaya memodifikasi dan menyalahgunakan model karena pengaman bisa dilepas dengan murah.

Implikasi: Perlunya Peta Jalan Keamanan yang Gesit

Laporan AISI menggarisbawahi paradoks kemajuan AI: di satu sisi mendorong percepatan ilmu pengetahuan dan otomatisasi bermanfaat, di sisi lain mengikis penghalang untuk penyalahgunaan dan memperkenalkan risiko sistemik baru.

“Kecepatan perkembangan ini luar biasa,” tulis laporan tersebut. “Ada kemungkinan dalam beberapa tahun mendatang tren ini dapat mengarah pada kemampuan yang diakui luas sebagai Kecerdasan Umum Buatan (AGI).”

Menyikapi temuan ini, AISI menyerukan pendekatan proaktif: evaluasi berkelanjutan, penguatan pengaman yang sejalan dengan peningkatan kemampuan, dan kolaborasi erat antara pemerintah, industri, dan akademisi. Masa depan AI yang aman bergantung pada kemampuan kita untuk memahami bukan hanya apa yang AI bisa lakukan hari ini, tetapi ke mana mereka akan pergi besok — dan membangun pagar pengaman sebelum kemampuan itu menjadi risiko nyata.

Media:
https://www.aisi.gov.uk/frontier-ai-trends-report?utm_source=newsletter.theresanaiforthat.com&utm_medium=newsletter&utm_campaign=google-drops-offline-ai-for-phones&_bhlid=91134dd3ba5a9bde8455c7658ece4a62b69caa87

Total
0
Shares
Share 0
Tweet 0
Pin it 0
Related Topics
  • AI News
  • DeepMind
  • OpenAI
  • Report
  • Studi
Rifad

Previous Article
Pergantian Besar dalam Rantai Pasokan AI: Mengapa OpenAI Tinggalkan Luxshare untuk Foxconn ?
  • AI News
  • OpenAI
  • Pojok AI

Pergantian Besar dalam Rantai Pasokan AI: Mengapa OpenAI Tinggalkan Luxshare untuk Foxcon?

  • Rifad
View Post
Next Article
  • AI News
  • OpenAI

OpenAI Akui Kekalahan: “Prompt Injection” adalah Ancaman Permanen yang Tak Terpecahkan

  • Rifad
View Post
You May Also Like
View Post
  • AI News
  • LLMs
  • Newsletter
  • OpenAI
  • Tokoh AI

OpenAI Is Going Bankrupt? Fakta di Balik Isu Burn Rate, Iklan, dan Taruhan Besar pada AGI

  • Rifad
  • February 24, 2026
View Post
  • AI News
  • Google
  • LLMs

🚀 Google Pukau Dunia Teknologi: Gemini 3.1 Pro Hadir dengan Kecerdasan 2X Lebih Kuat!

  • Rifad
  • February 20, 2026
View Post
  • AI News

Hacker Publikasikan Informasi Pribadi yang Dicuri Selama Pelanggaran Data di Harvard dan UPenn

  • Rifad
  • February 5, 2026
View Post
  • AI News
  • Amazon

Amazon PHK 16.000 Karyawan, Total Pemangkasan Capai 30.000 dalam 3 Bulan!

  • Rifad
  • January 29, 2026
View Post
  • AI News
  • LLMs
  • Meta

Zuckerberg Diduga Halangi Pembatasan Chatbot Meta yang Bisa Bahas Konten Seksual dengan Anak di Bawah Umur

  • Rifad
  • January 28, 2026
View Post
  • AI News
  • Anthropic
  • Tokoh AI

CEO Anthropic, Dario Amodei: AI Dapat Meningkatkan Pertumbuhan Ekonomi dan Mengurangi Pengangguran

  • Rifad
  • January 21, 2026
View Post
  • AI News
  • OpenAI
  • xAI

Kebenaran di Balik Gugatan Elon Musk Terhadap OpenAI

  • Rifad
  • January 19, 2026
View Post
  • AI News
  • Google
  • Microsoft
  • OpenAI
  • xAI

Elon Musk Tuntut Ganti Rugi Fantastis $79–134 Miliar dari OpenAI dan Microsoft, Klaim Perusahaan AI Itu Menipunya

  • Rifad
  • January 18, 2026
Artifisial Official Blog Artifisial Official Blog
  • About
  • Privacy Policy
  • Terms of Services

Input your search keywords and press Enter.