Apakah kita siap untuk melakukan eksperimen laboratorium di tangan non-manusia?

Rizal Santoso
Rizal Santoso

Sebagai jurnalis yang berpengalaman lebih dari 15 tahun di media Indonesia, saya berkomitmen untuk menyajikan informasi yang relevan dan otentik agar pembaca lebih dekat dengan keragaman Indonesia.

Stephen D Turner dari Universitas Virginia mengeksplorasi pentingnya tata kelola dan pengawasan seputar AI dalam desain dan pelaksanaan eksperimen laboratorium.

Versi artikel ini awalnya diterbitkan oleh The Conversation (CC BY-ND 4.0)

Kecerdasan buatan dengan cepat belajar merancang dan menjalankan eksperimen biologis secara mandiri, namun sistem yang dimaksudkan untuk mengatur kemampuan tersebut mengalami kesulitan untuk mengimbanginya.

Perusahaan AI OpenAI dan perusahaan bioteknologi Ginkgo Bioworks mengumumkan pada bulan Februari 2026 bahwa model andalan OpenAI, GPT-5, telah dirancang dan dijalankan secara mandiri 36.000 percobaan biologis. Hal ini dilakukan melalui a laboratorium awan robotfasilitas tempat peralatan otomatis yang dikendalikan dari jarak jauh oleh komputer melakukan eksperimen. Model AI mengusulkan desain penelitian, dan robot melaksanakannya dan memasukkan data kembali ke model untuk putaran berikutnya. Manusia menetapkan tujuannya, dan mesin melakukan sebagian besar pekerjaan di laboratorium, sehingga memotong biaya produksi protein yang diinginkan sebesar 40 persen.

Ini biologi yang dapat diprogram: merancang komponen biologis di komputer dan membangunnya di dunia fisik, dengan AI menutup lingkaran tersebut.

Selama beberapa dekade, biologi sebagian besar berpindah dari pengamatan menuju pemahaman. Para ilmuwan mengurutkan genom organisme untuk membuat katalog seluruh DNA mereka, mempelajari bagaimana gen mengkodekan protein yang menjalankan fungsi kehidupan. Penemuan alat seperti CRISPR kemudian mengizinkan para ilmuwan untuk mengedit DNA tersebut untuk tujuan tertentu, seperti menonaktifkan gen yang terkait dengan penyakit. AI kini mempercepat fase ketiga, di mana komputer dapat merancang sistem biologis dan mengujinya dengan cepat.

Prosesnya tidak terlihat seperti pekerjaan bangku tradisional di laboratorium dan lebih seperti rekayasa: merancang, membangun, menguji, mempelajari, dan mengulangi. Jika eksperimen tradisional mungkin menguji satu hipotesis, biologi terprogram berbasis AI mengeksplorasi ribuan variasi desain secara paralel, mengulangi cara seorang insinyur menyempurnakan prototipe.

Sebagai ilmuwan data yang mempelajari genomik dan biosekuritiSaya meneliti bagaimana AI membentuk kembali penelitian biologi dan perlindungan apa yang diperlukan. Langkah-langkah dan peraturan keselamatan yang ada saat ini belum mampu mengimbangi kemampuan ini, dan kesenjangan antara apa yang dapat dilakukan AI dalam bidang biologi dan apa yang siap ditangani oleh sistem tata kelola semakin besar.

Apa yang dimungkinkan oleh AI

Contoh paling jelas tentang bagaimana peneliti menggunakan AI untuk mengotomatisasi penelitian adalah desain protein yang dipercepat AI.

Protein adalah mesin molekuler yang melakukan sebagian besar fungsi dalam sel hidup. Merancang protein baru secara tradisional memerlukan uji coba selama bertahun-tahun karena perubahan kecil sekalipun pada rangkaian protein dapat mengubah bentuk dan fungsinya dengan cara yang tidak terduga.

Model bahasa proteinyang merupakan sistem AI yang dilatih pada jutaan rangkaian protein alami, dapat dengan cepat memprediksi bagaimana mutasi akan mengubah perilaku atau perilaku protein. merancang protein baru. Model AI ini sedang dirancang obat baru yang potensial Dan mempercepat pengembangan vaksin.

Dipasangkan dengan laboratorium otomatismodel-model ini menciptakan putaran eksperimen dan revisi yang ketat, menguji ribuan variasi dalam hitungan hari, bukan dalam hitungan bulan atau tahun yang dibutuhkan oleh tim manusia.

Rekayasa protein yang lebih cepat dapat berarti respons yang lebih cepat terhadap infeksi baru dan obat-obatan yang lebih murah.

Masalah penggunaan ganda

Para peneliti telah menyuarakan kekhawatiran bahwa alat-alat AI tersebut dapat disalahgunakan, sebuah tantangan yang dikenal sebagai tantangan masalah penggunaan ganda: teknologi yang dikembangkan untuk tujuan bermanfaat juga dapat digunakan kembali untuk menimbulkan kerugian.

Misalnya, para peneliti telah menemukan model AI terintegrasi dengan laboratorium otomatis Bisa mengoptimalkan seberapa baik virus menyebarbahkan tanpa pelatihan khusus. Para ilmuwan punya mengembangkan alat penilaian risiko untuk mengevaluasi bagaimana AI dapat memodifikasi kemampuan virus, seperti mengubah spesies yang akan diinfeksinya atau membantunya menghindari sistem kekebalan.

Model AI saat ini mampu memandu pengguna melalui langkah-langkah teknis memulihkan virus hidup dari DNA sintetis. Para peneliti telah menentukan bahwa AI dapat mengurangi hambatan pada berbagai tahap dalam proses pengembangan senjata biologis, dan pengawasan yang ada saat ini tidak cukup mengatasi risiko ini.

Risiko dari bio AI

Ilmuwan berpengalaman sudah melakukannya menggunakan AI untuk merencanakan Dan merancang eksperimen biologis. Pertanyaan apakah AI dapat membantu orang dengan pelatihan biologi terbatas melakukan pekerjaan laboratorium yang berbahaya masih menjadi subjek penelitian aktif.

Dua penelitian terbaru menghasilkan kesimpulan berbeda.

Sebuah studi yang dilakukan oleh perusahaan AI Scale AI dan organisasi nirlaba biosekuriti SecureBio menemukan bahwa ketika orang dengan pengalaman biologi terbatas diberi akses ke model bahasa besar, yang merupakan jenis AI di balik alat seperti ChatGPT, mereka dapat melakukannya menyelesaikan tugas-tugas yang berhubungan dengan biosekuriti seperti memecahkan masalah protokol laboratorium virologi yang kompleks dengan akurasi empat kali lebih besar. Di beberapa bidang, para pemula ini mengungguli para ahli terlatih. Sekitar 90 persen dari para pemula ini melaporkan sedikit kesulitan dalam membuat model tersebut memberikan informasi biologis yang berisiko, seperti instruksi terperinci tentang cara menangani patogen berbahaya, meskipun ada filter keamanan bawaan yang dimaksudkan untuk memblokir keluaran tersebut.

Sebaliknya, sebuah penelitian yang dipimpin oleh Active Site, sebuah penelitian nirlaba yang mempelajari penggunaan AI dalam biologi sintetik, menemukan bahwa bantuan AI tidak menyebabkan perbedaan yang signifikan dalam kemampuan pemula untuk menyelesaikan tugas. alur kerja yang rumit untuk menghasilkan virus di laboratorium keamanan hayati. Namun, kelompok yang dibantu AI lebih sering berhasil dalam sebagian besar tugas dan menyelesaikan beberapa langkah lebih cepat, terutama dalam menumbuhkan sel di laboratorium.

Pekerjaan langsung di laboratorium biasanya menjadi hambatan dalam menerjemahkan desain menjadi hasil. Bahkan rencana belajar yang cemerlang pun tetap bergantung pada tangan manusia yang terampil untuk melaksanakannya. Hal ini mungkin tidak akan bertahan lama, seiring dengan berkembangnya laboratorium cloud dan otomatisasi robot lebih murah dan lebih mudah diaksesmemungkinkan para peneliti mengirimkan desain eksperimental yang dihasilkan AI ke fasilitas jarak jauh untuk dieksekusi.

Menanggapi risiko biologis yang disebabkan oleh AI

Sistem AI kini dapat menjalankan eksperimen secara mandiri dan dalam skala besar, namun peraturan yang ada tidak dirancang untuk hal ini. Peraturan yang mengatur penelitian biologi tidak memperhitungkan otomatisasi yang digerakkan oleh AI, dan peraturan yang mengatur AI tidak secara khusus membahas penggunaannya dalam biologi.

Di AS, pemerintahan Biden telah mengeluarkan perintah eksekutif tahun 2023 tentang keamanan AI yang mencakup hal tersebut ketentuan biosekurititetapi pemerintahan Trump mencabutnya. Skrining DNA sintetik yang dilakukan penyedia komersial untuk memastikan DNA tersebut tidak disalahgunakan untuk membuat patogen atau racun sebagian besar dilakukan secara sukarela. RUU bipartisan diperkenalkan pada tahun 2026 mengamanatkan skrining DNA belum membahas rangkaian rancangan AI yang menghindari metode deteksi saat ini.

Tahun 1975 Konvensi Senjata Biologissebuah perjanjian internasional yang melarang produksi dan penggunaan senjata biologis, tidak memuat ketentuan mengenai AI. Inggris Institut Keamanan AI dan AS Komisi Keamanan Nasional untuk Bioteknologi yang Muncul keduanya menyerukan tindakan pemerintah yang terkoordinasi.

Evaluasi keselamatan yang dilakukan laboratorium AI sebelum merilis model baru sering kali bersifat negatif buram dan tidak cocok untuk menangkap risiko dunia nyata. Para peneliti memperkirakan bahwa peningkatan kecil sekalipun pada kemampuan model AI untuk membantu merencanakan eksperimen terkait patogen dapat mewujudkan hal tersebut ribuan kematian tambahan akibat bioterorisme per tahun. Garis waktu ketika kemampuan ini melewati ambang batas kritis tetap tidak jelas.

Inisiatif Ancaman Nuklir telah mengusulkan kerangka akses terkelola untuk alat AI biologis, mencocokkan siapa yang dapat menggunakan alat tertentu dengan tingkat risiko model, bukan pembatasan menyeluruh. RAND Center on AI, Security and Technology menguraikan serangkaian hal tindakan yang bisa dilakukan peneliti untuk meningkatkan biosekuriti, termasuk peningkatan penyaringan sintesis DNA dan evaluasi model sebelum pelepasan. Para peneliti juga berpendapat demikian data biologis itu sendiri membutuhkan tata kelolaterutama data genom yang dapat melatih model dengan kemampuan berbahaya.

Beberapa perusahaan AI sudah mulai secara sukarela menerapkan langkah-langkah keamanan mereka sendiri. Antropis mengaktifkan tingkat keamanan tertingginya ketika merilis model tercanggihnya pada pertengahan tahun 2025. Pada saat yang sama, OpenAI memperbarui Kerangka Kesiapsiagaannyamerevisi ambang batas seberapa besar risiko biologis yang dapat ditimbulkan oleh suatu model sebelum diperlukan upaya perlindungan tambahan. Namun hal ini bersifat sukarela dan merupakan langkah khusus perusahaan. CEO Anthropic, Dario Amodei, menulis bahwa laju pengembangan AI akan segera terjadi berlari lebih cepat dari kemampuan perusahaan mana pun untuk menilai risiko model tertentu.

Jika digunakan dalam lingkungan yang terkontrol dengan baik, AI dapat membantu ilmuwan mencapai tujuan penelitian mereka dengan cepat. Apa yang terjadi ketika kemampuan yang sama beroperasi di luar kendali tersebut adalah pertanyaan yang belum terjawab oleh kebijakan. Bereaksi berlebihan, maka talenta dan investasi mungkin akan berpindah ke tempat lain sementara teknologi terus berkembang. Jika tidak bereaksi, maka risiko teknologi tersebut dapat dieksploitasi untuk menimbulkan kerugian yang nyata.

Percakapan

Stephen D Turner

Stephen D Turner adalah profesor ilmu data dan asisten dekan penelitian di Fakultas Ilmu Data Universitas Virginia. Dia telah mengerjakan aplikasi biosekuriti dalam keamanan nasional dan menulis tentang AI, biosekuriti, dan topik lainnya.