• About
  • Privacy Policy
  • Terms of Services
0
0
Artifisial Creative Universe Artifisial Creative Universe Artifisial Creative Universe
  • AI News
    • Apple
    • Anthropic
    • OpenAI
    • Meta
    • Microsoft
    • Amazon
    • Google
    • xAI
  • TOP 100 Tokoh AI
  • Cool AI Tools
  • Grup Komunitas
  • Subscribe
  • Tokoh AI

Dan Hendrycks: Penjaga Masa Depan AI dari Ancaman Eksistensial

  • N Firmansyah
Total
0
Shares
0
0
0

Dan Hendrycks adalah salah satu tokoh paling berpengaruh dalam bidang keamanan kecerdasan buatan (AI) di dunia, yang telah mendedikasikan kariernya untuk memastikan teknologi AI dikembangkan dengan aman dan tidak menimbulkan risiko eksistensial bagi umat manusia. 

Lahir pada tahun 1994 atau 1995, peneliti machine learning berusia 30 tahun ini kini menjabat sebagai Executive Director Center for AI Safety (CAIS), sebuah organisasi nonprofit yang berfokus pada pengurangan risiko skala masyarakat yang terkait dengan AI. Sebagai penasihat keamanan AI untuk xAI milik Elon Musk dan Scale AI, Hendrycks telah memposisikan dirinya sebagai jembatan antara penelitian akademik dan implementasi praktis keamanan AI di industri.

Latar Belakang dan Pendidikan

Dan Hendrycks dibesarkan dalam keluarga Kristen evangelis di Marshfield, Missouri. Perjalanan pendidikannya dimulai di University of Chicago, di mana ia meraih gelar Bachelor of Science pada tahun 2018. Keputusannya untuk fokus pada AI safety dipengaruhi oleh partisipasinya dalam program 80,000 Hours yang terkait dengan gerakan effective altruism, meskipun ia kemudian menyangkal sebagai advokat EA.

Melanjutkan pendidikan pascasarjana, Hendrycks menempuh PhD di University of California, Berkeley dalam bidang Computer Science, yang diselesaikannya pada tahun 2022. Selama masa PhD, ia dibimbing oleh Dawn Song dan Jacob Steinhardt, dua tokoh terkemuka dalam bidang AI safety dan machine learning. Penelitiannya selama periode ini didukung oleh NSF GRFP dan Open Philanthropy AI Fellowship.

Kontribusi Revolusioner dalam Machine Learning

GELU Activation Function: Standar Industri AI Modern

Salah satu kontribusi teknis paling berpengaruh Hendrycks adalah pengembangan GELU (Gaussian Error Linear Units) activation function pada tahun 2016. GELU, yang didefinisikan sebagai x·Φ(x) di mana Φ(x) adalah fungsi distribusi kumulatif Gaussian standar, telah menjadi fungsi aktivasi yang paling banyak digunakan dalam model-model AI terdepan.

Fungsi aktivasi ini kini digunakan dalam hampir semua model transformer state-of-the-art, termasuk BERT, GPT, Vision Transformers, dan sistem AI generatif terbaru. Berbeda dengan ReLU yang memotong nilai negatif secara keras, GELU memberikan transisi yang lebih halus dengan menimbang input berdasarkan magnitude-nya, sehingga memungkinkan gradient flow yang lebih baik dan representasi yang lebih kaya.

MMLU: Benchmark Standar untuk Evaluasi AI

Kontribusi penting lainnya adalah pengembangan MMLU (Massive Multitask Language Understanding) benchmark pada tahun 2020. MMLU terdiri dari 15,908 pertanyaan multiple-choice yang mencakup 57 subjek, mulai dari matematika dasar hingga hukum internasional, nutrisi, dan agama. Benchmark ini dirancang untuk menguji kemampuan model bahasa besar dalam zero-shot dan few-shot learning across berbagai domain pengetahuan.

Ketika pertama kali dirilis, sebagian besar model AI mencapai skor mendekati tingkat kebetulan (25%), dengan GPT-3 175B mencapai akurasi terbaik 43,9%. Para pencipta MMLU memperkirakan bahwa ahli domain manusia mencapai sekitar 89,8% akurasi. Pada pertengahan 2024, model-model terdepan seperti Claude 3.5 Sonnet, GPT-4o, dan Llama 3.1 405B secara konsisten mencapai 88%.

Center for AI Safety: Membangun Ekosistem Penelitian Keamanan AI

Mendirikan dan Memimpin Organisasi Nonprofit

Pada Januari 2023, Hendrycks mendirikan dan menjadi Executive Director Center for AI Safety (CAIS), sebuah organisasi nonprofit yang berbasis di San Francisco dengan misi mengurangi risiko skala masyarakat yang terkait dengan AI. CAIS berfokus pada tiga pilar utama: memajukan penelitian keamanan, membangun komunitas peneliti keamanan, dan mempromosikan standar keamanan.

Sebagai laboratorium penelitian teknis, CAIS mengembangkan benchmark dan metode foundational yang mengkonkretkan masalah dan kemajuan menuju solusi teknis. Organisasi ini juga menyediakan akses gratis ke compute cluster untuk peneliti, memungkinkan mereka menjalankan dan melatih sistem AI skala besar.

Statement Eksistensial yang Mengubah Diskursus Global

Pada Mei 2023, CAIS menerbitkan statement yang menyatakan bahwa “risiko kepunahan dari AI harus menjadi prioritas global bersama risiko skala masyarakat lainnya seperti pandemi dan perang nuklir”. Statement ini ditandatangani oleh lebih dari 500 akademisi terkemuka dan pemimpin industri, termasuk Geoffrey Hinton, Yoshua Bengio, dan CEO dari OpenAI, Anthropic, dan Google DeepMind.

Statement ini berhasil mengubah diskursus global tentang AI safety dari diskusi akademik menjadi prioritas kebijakan internasional, memaksa pemerintah dan perusahaan teknologi untuk mempertimbangkan secara serius risiko jangka panjang dari pengembangan AI.

Penelitian Risiko Katastrofik AI

Framework Empat Kategori Risiko AI

Hendrycks mengembangkan framework komprehensif untuk menganalisis risiko katastrofik AI yang ia organisasikan dalam empat kategori utama. Framework ini dipublikasikan dalam paper “An Overview of Catastrophic AI Risks” yang menjadi referensi penting dalam bidang AI safety.

Malicious Use: Aktor yang secara sengaja menggunakan AI untuk menyebabkan kerusakan, termasuk bioterrorisme yang dimungkinkan oleh AI yang dapat membantu manusia menciptakan patogen mematikan, penyebaran agen AI yang tidak terkendali, dan penggunaan kemampuan AI untuk propaganda, sensor, dan surveillance.

AI Race Dynamics: Tekanan kompetitif yang memaksa aktor untuk men-deploy AI yang tidak aman atau menyerahkan kontrol kepada sistem AI, termasuk tekanan militer untuk mengembangkan senjata otonom dan warfare otomatis di mana kecelakaan dapat spiral di luar kendali sebelum manusia sempat intervensi.

Organizational Risks: Kecelakaan organisasi yang dapat menyebabkan bencana, mirip dengan Chernobyl atau Challenger Space Shuttle disaster, termasuk AI yang secara tidak sengaja bocor ke publik atau dicuri oleh aktor jahat.

Rogue AI: Sistem AI yang mungkin mengejar tujuan yang tidak sejalan dengan kepentingan manusia, berpotensi menyebabkan kehilangan kontrol manusia atas sistem yang sangat canggih.

AI and Evolution: Perspektif Seleksi Alam

Salah satu kontribusi teoritis penting Hendrycks adalah analisisnya tentang bagaimana evolusi dan tekanan kompetitif dapat membentuk tujuan agen artifisial. Dalam presentasinya “AI and Evolution” di Stanford Digital Economy Lab, ia berargumen bahwa pengembangan AI dapat dibentuk oleh tekanan kompetitif, menghasilkan agen AI yang mengotomatisasi peran manusia, meraih kekuasaan, dan menipu orang lain.

Hendrycks berpendapat bahwa seleksi alam beroperasi pada sistem yang berkompetisi dan bervariasi, dan bahwa spesies yang egois biasanya memiliki keunggulan atas spesies yang altruistik terhadap spesies lain. Untuk melawan tekanan evolusioner ini, ia mempertimbangkan intervensi seperti mendesain motivasi intrinsik agen AI dengan hati-hati, memperkenalkan batasan pada tindakan mereka, dan institusi yang mendorong kerjasama.

Peran Strategis sebagai Penasihat Industri

xAI: Mengawasi Keamanan Proyek Elon Musk

Pada Juli 2023, Hendrycks diangkat sebagai safety advisor untuk xAI, startup AI yang didirikan oleh Elon Musk. Yang menarik, Hendrycks memprediksi keputusan Musk untuk kembali ke “pertarungan membangun AI canggih yang aman” pada tahun 2021, meskipun ia tidak mengantisipasi akan menjadi penasihat keamanannya.

Untuk menghindari konflik kepentingan, Hendrycks menerima gaji simbolis $1 dan tidak memiliki ekuitas perusahaan. Dalam pertemuan pertamanya dengan Musk, Hendrycks menekankan tekanan kompetitif sebagai faktor risiko terbesar, dan Musk setuju bahwa mereka “tidak boleh mencoba memenangkan perlombaan kepunahan”.

Scale AI: Memperluas Pengaruh dalam Evaluasi Model

Pada November 2024, Hendrycks juga bergabung sebagai advisor di Scale AI, perusahaan yang menangani labeling data untuk pelatihan model AI korporat. Dengan gaji simbolis $12 per tahun (12 kali lipat dari gajinya di xAI), posisi ini memperkuat koneksi Hendrycks di seluruh industri AI dan berpotensi meningkatkan hubungan dengan administrasi Trump melalui koneksi Michael Kratsios.

Buku dan Kontribusi Pendidikan

“Introduction to AI Safety, Ethics, and Society”

Pada tahun 2024, Hendrycks menerbitkan buku komprehensif setebal 568 halaman berjudul “Introduction to AI Safety, Ethics, and Society”. Buku ini dirancang sebagai sumber daya yang dapat diakses untuk mahasiswa, praktisi, dan siapa pun yang tertarik memahami lanskap kompleks keamanan AI.

Buku ini mengeksplorasi berbagai cara di mana masyarakat dapat gagal memanfaatkan AI dengan aman, termasuk penggunaan jahat, kegagalan yang tidak disengaja, erosi standar keamanan karena kompetisi antara pengembang AI atau negara-bangsa, dan potensi kehilangan kontrol atas sistem otonom. Pendekatan holistik ini mengintegrasikan wawasan dari safety engineering, ekonomi, dan bidang relevan lainnya.

Platform Pembelajaran Online

Hendrycks juga mengembangkan platform pembelajaran online di www.aisafetybook.com yang memungkinkan akses gratis ke buku teksnya. Platform ini juga menyediakan versi audiobook di Spotify, membuat konten menjadi lebih dapat diakses. Kursus ini bertujuan menumbuhkan pemahaman yang thoughtful dan nuanced tentang AI safety, melengkapi peserta dengan tools dan insights yang dibutuhkan untuk menavigasi bidang yang berkembang pesat ini.

Humanity’s Last Exam: Mengukur Kemampuan Superhuman AI

Salah satu proyek terbaru Hendrycks adalah “Humanity’s Last Exam,” sebuah benchmark untuk mengevaluasi kemampuan model bahasa besar yang dirancang untuk mengidentifikasi kapan AI mencapai tingkat kemampuan superhuman. Benchmark ini dikembangkan bersama dengan Scale AI dan melibatkan kolaborasi dengan profesor, postdocs, dan PhD dari seluruh dunia.

Konsep di balik benchmark ini adalah meminta peneliti untuk menyumbangkan pertanyaan yang sangat sulit yang mereka temui dalam penelitian mereka. Ketika model AI menunjukkan performa tinggi pada benchmark ini, hal tersebut akan menunjukkan kemampuan matematikawan superhuman yang dapat merevolusi akademia secara substansial.

Evaluasi Kemampuan Berbahaya Model AI

Expertise dalam Virologi dan Bioteknologi

Dalam penelitian terbaru, Hendrycks dan timnya menemukan bahwa model reasoning terbaru mencapai persentil ke-90 dibandingkan dengan virolog expert dalam area keahlian mereka. Model-model ini dapat memandu prosedur wet lab langkah demi langkah dalam membuat virus dan memanipulasi propertinya, yang sangat berbeda dari model GPT-4 awal dua tahun lalu.

Temuan ini menunjukkan bahwa AI telah mengembangkan kemampuan wet lab dan dapat memandu seseorang langkah demi langkah, yang berpotensi sangat berbahaya. Hendrycks memperkirakan bahwa dalam beberapa bulan akan ada konsensus bahwa model-model ini expert-level dalam banyak cara yang relevan dan perlu dilakukan sesuatu tentang hal tersebut.

Kemampuan Cybersecurity dan Hacking

Meskipun awalnya mengira cybersecurity akan menjadi kekhawatiran utama karena AI sangat pandai dalam coding, Hendrycks menemukan bahwa biologi menjadi subjek yang menarik karena model-model ini sangat mengenal literatur dan memiliki memori yang fantastis. Kemampuan mereka dalam memahami seluk-beluk biologi dan prosedur laboratorium menjadi perhatian khusus dalam konteks keamanan biosafety.

Pengakuan dan Penghargaan Internasional

TIME 100 Most Influential People in AI

Pada September 2023, Hendrycks terpilih dalam daftar perdana “TIME 100 Most Influential People in AI”. TIME Magazine mengakui kontribusinya sebagai salah satu “Shapers” yang mempengaruhi lanskap AI, dengan fokus pada penelitian cara membuat AI aman, mengawasi upaya untuk meningkatkan jumlah orang yang melakukan hal yang sama, dan menginformasikan pembuat kebijakan serta publik tentang bahaya.

Pengakuan ini menempatkannya bersama tokoh-tokoh terdepan dalam AI seperti Sam Altman, Demis Hassabis, dan Geoffrey Hinton, merefleksikan dampak signifikan karyanya dalam membentuk diskusi global tentang keamanan AI.

AI2050 Early Career Fellow

Hendrycks juga merupakan penerima AI2050 Early Career Fellow dari Schmidt Sciences, sebuah pengakuan terhadap kontribusinya yang luar biasa dalam penelitian AI dan potensinya untuk membentuk masa depan bidang ini. Fellowship ini mendukung peneliti-peneliti muda yang menunjukkan kemampuan eksepsional dalam mengembangkan AI yang menguntungkan bagi kemanusiaan.

Visi dan Filosofi AI Safety

Pendekatan Proaktif terhadap Risk Management

Filosofi Hendrycks dalam AI safety berpusat pada prinsip-prinsip risk management yang proaktif. Ia memprioritaskan pertanyaan “apa yang bisa salah?” daripada secara reaktif menunggu bencana terjadi. Mindset proaktif ini memungkinkan antisipasi dan mitigasi risiko katastrofik sebelum terlambat.

Hendrycks percaya bahwa memahami risiko AI memerlukan pengetahuan dalam beberapa bidang yang berbeda, dan bahwa sebagian besar orang berpikir tentang masalah dalam AI risk dalam terms model konseptual yang sebagian besar implisit. Tujuannya adalah mengganti model implisit ini dengan model eksplisit yang telah teruji waktu.

Keseimbangan antara Kemajuan dan Keamanan

Meskipun vokal tentang risiko AI, Hendrycks tidak anti-teknologi atau anti-kemajuan. Ia mengakui bahwa tekanan kompetitif adalah faktor risiko terbesar dalam pengembangan AI, tetapi ia juga percaya bahwa dengan regulasi dan koordinasi internasional yang tepat, AI dapat dikembangkan dengan aman.

Hendrycks berharap pemerintah atau institusi internasional akan mengatasi tekanan kompetitif ini, sementara ia bekerja memastikan bahwa perusahaan seperti xAI menjadi perusahaan AI “top-tier” yang memprioritaskan keamanan.

Dampak dan Warisan

Mengubah Lanskap Penelitian AI Safety

Kontribusi Hendrycks telah mengubah cara komunitas AI memandang keamanan dan risiko dari pengembangan teknologi. Melalui CAIS, ia telah membantu membangun field-building dalam AI safety dengan menyediakan funding, infrastruktur penelitian, dan sumber daya pendidikan.

Penelitiannya tentang risiko katastrofik AI telah menjadi referensi fundamental dalam bidang ini, mempengaruhi kebijakan pemerintah dan strategi perusahaan teknologi besar. Framework empat kategori risikonya kini digunakan secara luas dalam analisis policy dan risk assessment.

Jembatan antara Akademia dan Industri

Sebagai penasihat untuk xAI dan Scale AI, Hendrycks telah berhasil menjembatani gap antara penelitian akademik dan implementasi praktis di industri. Posisinya yang unik memungkinkannya untuk mempengaruhi pengembangan AI dari dalam sambil mempertahankan independensi melalui kompensasi simbolis.

Pendekatannya yang pragmatis dalam menangani risiko AI – tidak anti-teknologi tetapi sangat berhati-hati – telah membantu membuat diskusi AI safety lebih dapat diterima di kalangan praktisi industri.

Tantangan dan Masa Depan

Menavigasi Tekanan Kompetitif Global

Salah satu tantangan terbesar yang diidentifikasi Hendrycks adalah tekanan kompetitif dalam pengembangan AI, baik antar perusahaan maupun antar negara. Ia berargumen bahwa perlombaan AI dapat mendorong pengembangan yang terburu-buru dan pengabaian protokol keamanan.

Hendrycks terus mengadvokasi untuk regulasi keamanan, koordinasi internasional, dan kontrol publik atas AI general-purpose sebagai cara untuk mengurangi risiko dari perlombaan AI. Visinya mencakup framework governance global yang dapat memastikan pengembangan AI yang bertanggung jawab.

Persiapan untuk AI Superhuman

Dengan kemampuan AI yang terus meningkat, Hendrycks memfokuskan perhatiannya pada persiapan untuk era di mana AI mungkin melampaui kemampuan manusia dalam berbagai domain. Benchmark seperti “Humanity’s Last Exam” dirancang untuk mengidentifikasi titik infleksi ini dan memastikan kita siap menghadapi implikasinya.

Kesimpulan

Dan Hendrycks telah membuktikan dirinya sebagai salah satu suara paling penting dan berpengaruh dalam bidang keamanan AI global. Melalui kontribusi teknisnya yang revolusioner seperti GELU dan MMLU, penelitian pioneering tentang risiko katastrofik AI, dan kepemimpinannya di Center for AI Safety, ia telah membentuk cara dunia memandang dan mengatasi tantangan keamanan AI.

Sebagai Executive Director CAIS dan penasihat untuk perusahaan-perusahaan AI terdepan, Hendrycks telah berhasil menjembatani dunia akademik dan industri, memastikan bahwa pertimbangan keamanan menjadi bagian integral dari pengembangan AI. Warisannya bukan hanya dalam tools dan frameworks yang ia ciptakan, tetapi dalam perubahan fundamental diskursus AI dari fokus semata pada capabilities menuju pertimbangan serius tentang safety dan alignment.

Di era di mana AI semakin powerful dan berpengaruh, visi Hendrycks tentang pengembangan AI yang proaktif, bertanggung jawab, dan aman akan terus membimbing generasi mendatang dalam memastikan bahwa kemajuan teknologi AI menguntungkan seluruh umat manusia, bukan menjadi ancaman eksistensial. Melalui kombinasi research excellence, practical wisdom, dan strategic leadership, Hendrycks telah memposisikan dirinya sebagai penjaga masa depan AI yang sangat diperlukan di saat teknologi ini berkembang dengan kecepatan yang belum pernah ada sebelumnya.

Sering merasa overwhelmed dengan berita AI yang terlalu banyak? I hear you. Subscribe ke Artifisial Newsletter dan dapatkan informasi teknologi AI terkini agar kamu tetap up-to-date tanpa buang waktu.
Total
0
Shares
Share 0
Tweet 0
Pin it 0
Related Topics
  • AI2050 Early Career Fellow
  • Center for AI Safety
  • GELU
N Firmansyah

I have over 8+ years of experience working remotely with companies from Vietnam, the United Kingdom, Singapore, and Indonesia.

Previous Article
  • Tokoh AI

Margaret Mitchell: Pelopor Etika AI dan Pejuang Keadilan Algoritma

  • N Firmansyah
View Post
Next Article
  • Tokoh AI

Paul Scharre: Ahli Strategi AI dan Senjata Otonom yang Mengubah Masa Depan Perang

  • N Firmansyah
View Post
You May Also Like
View Post
  • Tokoh AI

Yann LeCun: Si Bapak Deep Learning yang Bikin AI Melek Dunia Nyata

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Yejin Choi: Si Penjaga “Akal Sehat” di Dunia AI

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Inioluwa Deborah Raji: Si Penjaga Keadilan di Era AI

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Timnit Gebru: Pejuang Etika dalam Dunia AI yang Didominasi Big Tech

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Pushmeet Kohli: Membuat AI Lebih Aman, Lebih Cerdas, dan Lebih Bermanfaat untuk Dunia

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Yi Zeng: Menyatukan Otak, Etika, dan Kemanusiaan dalam Perkembangan AI

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Jess Whittlestone: Menjaga Masa Depan AI Tetap Aman dan Manusiawi

  • N Firmansyah
  • July 10, 2025
View Post
  • Tokoh AI

Kate Crawford: Pionir Etika AI dan Pengungkap Biaya Material Kecerdasan Buatan

  • N Firmansyah
  • July 10, 2025
Artifisial Creative Universe Artifisial Creative Universe
  • About
  • Privacy Policy
  • Terms of Services

Input your search keywords and press Enter.