Betapa enkripsi homomorfik sepenuhnya membentuk kembali AI yang aman

Rizal Santoso
Rizal Santoso

Sebagai jurnalis yang berpengalaman lebih dari 15 tahun di media Indonesia, saya berkomitmen untuk menyajikan informasi yang relevan dan otentik agar pembaca lebih dekat dengan keragaman Indonesia.

Jeremy Bradley dari Zama membahas mengapa lonjakan AI memaksa bisnis untuk lebih memperhatikan privasi dan bagaimana teknologi baru meresponsnya.

Laporan Keamanan AI Internasional tahun 2026 yang diterbitkan bulan lalu memperjelas dua hal: meskipun penerapan AI masih bersifat percontohan atau alat dengan cakupan terbatas hanya satu atau dua tahun yang lalu, kemampuan AI telah berkembang pesat, dan penerapannya – bahkan lebih cepat. Faktanya, lebih dari 700 juta orang kini menggunakan sistem AI terkemuka setiap minggunya, yang merupakan tingkat penggunaan yang jauh melampaui teknologi sebelumnya seperti komputer pribadi.

Bagi perusahaan-perusahaan yang mengalami perubahan ini – baik dalam kemampuan teknologi maupun permintaannya – daya tarik untuk memanfaatkan AI sangatlah kuat. Disalurkan sebagian besar melalui pemrosesan data berbasis cloud, AI membuka pintu bagi segala hal mulai dari mengotomatiskan keputusan dan mengekstraksi nilai dari data dalam skala besar hingga bergerak jauh lebih cepat dibandingkan pesaing jika diterapkan sejak awal. Para profesional ini telah melihat banyak orang yang telah menanamkannya ke dalam alur kerja inti – termasuk penetapan harga, pengambilan keputusan, penelitian dan pengembangan, hukum, layanan kesehatan, dan keuangan.

Paradoks transparansi

Namun, begitu AI menyentuh IP inti dan data yang diatur, bisnis mengalami hambatan. Berhadapan dengan sistem yang dirancang terbuka, mereka kesulitan untuk mendukung kasus penggunaan di dunia nyata yang melibatkan segala jenis data rahasia (penggajian, identitas, keuangan perusahaan, dll).

Hal ini tidak serta merta memperlambat adopsi AI, namun justru menjadikannya tidak merata. Secara khusus, kami telah melihat eksperimen yang cepat, di mana AI memiliki risiko rendah, namun berhati-hatilah ketika menyangkut pelatihan sistem AI atau interaksi dengan data sensitif, teregulasi, atau kepemilikan. Hal ini menyebabkan banyak orang membatasi penggunaan produksi pada tugas-tugas yang cakupannya sempit; mengandalkan kumpulan data yang lebih tipis, bersih, atau sintetis; atau jauhkan beban kerja bernilai tinggi dari lingkungan cloud bersama sepenuhnya.

Hal ini tentu saja berasal dari risiko paparan data, baik melalui infrastruktur pihak ketiga, penggunaan kembali data dengan cara yang sulit untuk diaudit, atau informasi yang dimasukkan ke dalam model yang sulit untuk diperiksa atau diuraikan. Kegagalan besar yang menjadi berita utama baru-baru ini (kebocoran data, serangan inversi model, penegakan peraturan, skandal penyalahgunaan AI, dll.) hanya memperkuat kekhawatiran mengenai apa yang terjadi pada data sensitif setelah data tersebut memasuki sistem AI.

Selain itu, tata kelola AI juga beralih dari kebijakan abstrak ke tanggung jawab fidusia. Posisi Kantor Komisaris Informasi (ICO) Inggris mengenai kepatuhan AI, misalnya, adalah bahwa organisasi mana pun yang menggunakan AI untuk memproses data pribadi harus mematuhi undang-undang perlindungan data, terlepas dari seberapa rumit atau tidak jelasnya sistem tersebut. Dewan Perlindungan Data Eropa (EDPB) juga memiliki pendirian yang sama.

Betapa rahasianya AI akan menjadi standar

Dalam praktiknya, hal di atas menimbulkan pertanyaan besar – khususnya bagi industri yang diatur – seputar akuntabilitas, residensi data, dan kepatuhan terhadap undang-undang privasi. Namun hal ini juga membuat dunia usaha menyeimbangkan tekanan untuk segera mengadopsi AI dengan risiko mengekspos data yang tidak dapat hilang atau disalahgunakan. Dan kesenjangan inilah yang mulai diatasi oleh teknologi yang menjaga privasi – khususnya enkripsi homomorfik sepenuhnya (FHE).

FHE telah lama ada sebagai teori matematika, menjanjikan kemampuan untuk menghitung data terenkripsi tanpa pernah mendekripsinya. Namun hingga saat ini, penggunaannya masih terbatas; implementasinya lambat, membutuhkan banyak sumber daya, dan sulit bagi pengembang untuk berintegrasi ke dalam sistem dunia nyata.

Namun, beberapa terobosan baru-baru ini telah mendorong FHE lebih dekat ke penerapan skala besar dan teknologi yang siap dikembangkan. Ini termasuk skema kriptografi baru seperti optimasi CKKS, yang mendukung perkiraan aritmatika dan lebih efisien untuk tugas-tugas AI; peningkatan algoritma yang telah meningkatkan proses bootstrapping, secara drastis mengurangi waktu yang dibutuhkan untuk menyegarkan ciphertext; dan perpustakaan seperti TenSEAL dan Concrete semakin dioptimalkan, sehingga memudahkan pengembang untuk menerapkan FHE dalam skala besar. Selain itu, akselerasi perangkat keras melalui GPU dan FPGA telah mengurangi tuntutan komputasi, sementara API yang lebih ramah pengembang membuat integrasi ke dalam alur kerja yang ada menjadi lebih lancar.

Semua ini berarti bahwa sekarang – untuk pertama kalinya – pengembang benar-benar dapat merancang saluran AI yang kerahasiaannya dijamin oleh arsitektur itu sendiri, bukan dipaksakan secara eksternal. Hal ini memungkinkan untuk memperluas AI ke berbagai bidang seperti penggajian, layanan kesehatan, keuangan, dan domain lain yang diatur, semuanya tanpa mengorbankan privasi – sebuah perkembangan yang akan membuat AI rahasia menjadi standar.

Siapa yang paling diuntungkan?

Perusahaan-perusahaan yang berhasil dalam fase transformasi digital berikutnya bukanlah perusahaan-perusahaan yang yakin bahwa mereka sudah melakukan cukup banyak hal. Mereka juga tidak akan berasumsi bahwa privasi dapat diperbaiki di kemudian hari, dan tentu saja mereka juga tidak akan salah membaca kondisi saat ini yang relatif tenang seputar privasi karena kurangnya permintaan (segera setelah ada solusi yang layak, ekspektasi akan diatur ulang dengan sangat cepat).

Sebaliknya, merekalah yang akan memperlakukan data rahasia sebagai aset strategis sejak hari pertama, dan mereka yang sengaja menanamkan privasi.

Bagi mereka yang berada di kubu terakhir, mereka akan menjadi orang pertama yang membuka kunci:

  • Akses ke data yang lebih kaya, lebih sensitif, dan memiliki sinyal lebih tinggi, hanya karena pelanggan memercayai mereka.
  • Kecepatan penerapan di lingkungan sensitif berkat lebih sedikit tinjauan hukum, lebih sedikit kontrol yang dibuat khusus, dan lebih sedikit veto internal. Inilah saatnya nilai-waktu menjadi pembeda yang nyata.
  • Kedalaman integrasi dan kolaborasi. Sistem yang menjaga privasi membuka peluang kolaborasi lintas batas organisasi (mitra, pemasok, yurisdiksi) yang sebelumnya tidak mungkin dilakukan. Hal ini memperluas pasar yang dapat dituju, tidak hanya meningkatkan margin.

Apa yang akan terjadi dengan privasi pada akhir tahun ini?

Saat ini, teknologinya sudah siap dan manfaatnya sudah jelas, namun hal itu saja tidak cukup untuk mengubah privasi dari hal yang ‘bagus untuk dimiliki’ menjadi persyaratan tingkat dewan bagi banyak bisnis. Agar hal tersebut dapat terwujud, serangkaian tekanan akan dilakukan secara terpadu.

Pertama, kita akan mulai melihat beberapa perusahaan besar dan pelaku sektor publik menetapkan arsitektur yang menjaga privasi sebagai persyaratan default. Ini akan melihat tip pasar, dan sisanya akan mengikuti dengan cepat melalui rantai pasokan dan platform.

Pada saat yang sama, permintaan terhadap AI akan terus meningkat, seiring dengan kebutuhan AI untuk beroperasi pada data sensitif. Pada gilirannya, hal ini akan membuat regulasi AI semakin matang, dan dewan direksi tidak akan bertanya “apakah privasi itu baik?” namun “dapatkah kita membuktikan bahwa data tidak pernah bocor?”

Pada akhirnya, tekanan persaingan akan menyelesaikan sisanya. Perusahaan yang menunda penerapan pendekatan privacy-by-design akan mulai melihat pesaing bergerak lebih cepat, membuka data bernilai lebih tinggi, dan mencapai kesepakatan yang masih di luar jangkauan.

Saya yakin, semua hal ini akan terjadi pada akhir tahun 2026. Pada tahun 2027, ekspektasi akan melebihi kemampuan, dan dampak dari tidak menanamkan privasi secara sengaja akan terlihat, terukur, dan strategis.

Oleh Jeremy Bradley

Jeremy Bradley adalah chief operating officer di Zama. Beliau adalah pemimpin lintas fungsi dan sangat taktis yang telah bekerja dengan banyak organisasi untuk membentuk strategi, mendorong komunikasi dan kemitraan, serta memimpin kebijakan dan proses.