Agustin Huerta membahas fitur Tinjauan Kode baru Anthropic dan pentingnya tata kelola AI.
Karena semakin banyak organisasi dan profesional yang memanfaatkan teknologi itu membuat pengkodean lebih sederhanahal ini berpotensi menimbulkan bahaya tambahan, karena kecepatan pembuatan kode dapat mengakibatkan praktik keamanan yang buruk dan perilaku berisiko.
Pada bulan Maret, AI Amerika dan perusahaan riset Anthropic meluncurkan Code Review, sebuah fitur baru yang dirancang untuk menangkap dan menghilangkan bug sebelum bug tersebut masuk ke dalam basis kode perangkat lunak. Sebuah langkah yang dijelaskan oleh wakil presiden senior inovasi digital Globant, Agustin Huerta, mencerminkan “pergeseran dalam alur kerja pengembangan perangkat lunak karena alat AI semakin menguasai siklus hidup pengembangan perangkat lunak”.
Dia mengatakan kepada SiliconRepublic.com, “Ini menggunakan beberapa agen khusus untuk meninjau kode untuk mengetahui risiko dan bug, melakukan pemeriksaan silang satu sama lain dan memprioritaskan masalah yang paling relevan untuk peninjau.”
Namun dia mencatat, meskipun hal ini membantu tim untuk mengelola kode dalam jumlah besar dengan lebih baik, hal ini tidak menggantikan peninjau manusia dan menimbulkan beberapa kekhawatiran terkait keamanan jangka panjang dan praktik terbaik.
Masalah pengkodean yang kritis?
“Kekhawatirannya bukan pada kode yang dapat menulis dan meninjau dirinya sendiri, namun organisasi mungkin menganggap lebih sedikit pengawasan yang diperlukan,” kata Huerta, yang menjelaskan bahwa pada kenyataannya prinsip-prinsip yang sama yang menentukan dan mengatur pengembangan perangkat lunak tradisional tetap sama pentingnya ketika agen AI dilibatkan, atau bahkan lebih penting.
“Proses dan struktur alur kerja yang pernah mengatur pembuat kode manusia harus disesuaikan dengan agen pengatur, termasuk integrasi alur kerja, peninjauan manusia, kesiapan data, dan kemampuan observasi. Tim memerlukan visibilitas yang jelas tentang bagaimana kode dihasilkan, ditinjau, dan dipromosikan di seluruh lingkungan, serta pos pemeriksaan yang ditentukan untuk memvalidasi keluaran.”
Dia mengatakan, meskipun agen dapat melakukan sejumlah tugas, misalnya membantu, merekomendasikan, dan bahkan melaksanakan perintah dalam serangkaian pedoman yang ditentukan, kualitas kode dan manajemen risiko harus tetap menjadi tanggung jawab orang-orang yang mengikuti proses yang jelas.
Ia menemukan bahwa saat ini, terlalu banyak organisasi yang memilih untuk mendelegasikan tugas, seperti debugging dan penulisan kode kepada agen AI, bukan karyawan sungguhan, sehingga memperbesar potensi risiko, meskipun hal ini tidak hanya terjadi Halusinasi AI dan kesalahan yang menyelinap melewati tenaga kerja otomatis.
“Kekhawatiran yang lebih signifikan adalah ketergantungan yang berlebihan dan kepercayaan yang tidak terkendali terhadap otonomi agen. Ketergantungan yang berlebihan pada pekerjaan yang didorong oleh agen tanpa pemeriksaan dan keseimbangan yang tepat dapat menciptakan titik buta (blind spot) dan memperbesar masalah kecil menjadi masalah yang lebih besar, seperti kegagalan sistem atau risiko keamanan.
“Misalnya, sistem kontrol versi dan repositori kode adalah cara untuk menjaga observabilitas atas kode yang ditulis manusia, didukung oleh proses peninjauan terstruktur. Ketika alur kerja ini menjadi otomatis tanpa menyertakan lapisan pengawasan manusia tambahan, organisasi berisiko memperparah kesalahan dan menimbulkan masalah struktural yang lebih besar yang lebih sulit dideteksi atau diselesaikan.”
Ia menemukan, meskipun keterlibatan manusia tidak tergantikan dan sama pentingnya dalam seluruh siklus pembangunan, transparansi organisasi adalah hal yang tidak bisa digantikan. “Organisasi memerlukan visibilitas mengenai cara agen mengakses data, cara mereka berpikir, dan mengapa tugas dianggap selesai. Tingkat observasi ini adalah kunci dalam mengelola alur kerja manusia-agen, mengidentifikasi area pertumbuhan, dan menjaga akuntabilitas.”
Terlebih lagi, bila diterapkan dan diawasi dengan benar, terdapat manfaat yang jelas dan signifikan.
AI yang giat
Agen AI tidak diragukan lagi membawa elemen baru ke tempat kerja, baik atau buruk, tetapi ada manfaat nyata, seperti kemampuan untuk meningkatkan produktivitas, meminimalkan tugas-tugas data yang rumit dan melelahkan, mendukung pengembang dalam proses pengkodean dan mengidentifikasi masalah atau pola yang sering diabaikan oleh orang-orang.
Huerta mengatakan, “Dengan melakukan pekerjaan berulang yang sebelumnya ditangani oleh manusia, agen memungkinkan tim untuk fokus pada tugas dan aktivitas yang bernilai lebih tinggi. Manfaat ini paling baik diwujudkan ketika AI digunakan sebagai penyempurnaan, bukan pengganti, penilaian manusia.
“Model yang paling sukses adalah gabungan tim agen manusia, di mana kecepatan dan skala AI digabungkan dengan pengawasan manusia untuk menyempurnakan dan meningkatkan alur kerja, bukan hanya mengotomatisasinya.”
Tantangan utama ke depan, jelasnya, adalah membangun keseimbangan antara adopsi dan implementasi agen AI dan memadukannya dengan baik. penggunaan yang bertanggung jawab. Dia mengatakan, ketika agen menjadi lebih maju dan lebih mampu, organisasi berisiko kehilangan praktik dasar terbaik di bidang-bidang penting seperti yang mengatur pengembangan perangkat lunak.
“Para pemimpin harus terus memprioritaskan observabilitas, tata kelola, dan kolaborasi manusia-agen meskipun ada tekanan untuk membuktikan ROI dari sistem AI.”