Bisnis di Singapura sekarang dapat memanfaatkan kerangka kerja pengujian tata kelola dan perangkat untuk mendemonstrasikan penggunaan kecerdasan buatan (AI) yang “objektif dan dapat diverifikasi”. Langkah ini merupakan bagian dari upaya pemerintah untuk meningkatkan transparansi dalam penyebaran AI melalui pemeriksaan teknis dan proses.
Coined AI Verify adalah toolkit baru yang dikembangkan oleh Infocomm Media Development Authority (IMDA) dan Personal Data Protection Commission (PDPC), yang mengelola undang-undang perlindungan data pribadi negara tersebut.
Badan pemerintah menekankan bahwa konsumen perlu tahu bahwa sistem AI “adil, dapat dijelaskan, dan aman” karena lebih banyak produk dan layanan yang disematkan AI untuk memberikan pengalaman pengguna yang lebih dipersonalisasi atau jika tidak ada campur tangan manusia, buat keputusan di bawah ini. Mereka juga perlu memastikan bahwa organisasi yang menyebarkan produk tersebut akuntabel dan transparan.
Singapura telah menerbitkan kerangka kerja dan pedoman tata kelola AI sukarela, dan kerangka kerja tata kelola model AI-nya saat ini sedang dalam iterasi kedua.
Validasi AI sekarang akan memungkinkan pelaku pasar untuk menunjukkan kepada pemangku kepentingan yang relevan bahwa mereka menerapkan AI yang bertanggung jawab melalui pengujian standar. Toolkit baru, yang saat ini tersedia sebagai Produk yang Layak Minimum, menyediakan fungsionalitas yang “tepat” bagi pengguna awal untuk menguji dan memberikan umpan balik untuk pengembangan produk lebih lanjut.
Secara khusus, ia melakukan tes teknis untuk tiga prinsip “keadilan, interpretasi, dan ketahanan”, dan paket yang biasa digunakan perpustakaan sumber terbuka ke dalam alat untuk penilaian mandiri. Ini termasuk SHAP (SHapley Additive exPlanations) untuk interpretasi, Adversarial Robustness Toolkit untuk ketahanan permusuhan, dan AIF360 dan Fairlearn untuk pengujian yang adil.
Toolkit percontohan juga menghasilkan laporan untuk pengembang, manajemen, dan mitra bisnis yang mencakup area utama yang memengaruhi kinerja AI dan menguji model AI terhadap kemampuan yang diklaim.
Misalnya, produk berbasis AI akan diuji tentang bagaimana model membuat keputusan, dan apakah keputusan yang diprediksi membawa bias yang tidak diinginkan. Keamanan dan ketahanan sistem AI juga dapat dinilai.
Toolkit saat ini bekerja dengan beberapa model AI umum, seperti klasifikasi biner dan algoritma regresi dari kerangka kerja umum termasuk scikit-learn, Tensorflow, dan XGBoost.
IMDA menambahkan bahwa kerangka pengujian dan toolkit akan memungkinkan pengembang sistem AI untuk melakukan pengujian mandiri, tidak hanya untuk mempertahankan persyaratan komersial produk, tetapi juga untuk menyediakan platform umum untuk menampilkan hasil pengujian ini.
Alih-alih mendefinisikan standar etika, Verifikasi AI bertujuan untuk memverifikasi klaim pengembang sistem AI tentang penggunaan AI mereka dan kinerja produk AI mereka
Namun, IMDA menekankan bahwa toolkit tersebut tidak menjamin bahwa sistem AI yang diuji bebas dari bias atau risiko keamanan.
Namun, lembaga pemerintah Singapura mengatakan itu dapat memfasilitasi interoperabilitas kerangka kerja tata kelola AI dan dapat membantu organisasi mengisi kesenjangan antara kerangka kerja dan peraturan tersebut.
Ia menambahkan bahwa mereka bekerja dengan badan pengatur dan standar untuk memetakan validasi AI ke kerangka kerja AI yang sudah mapan sehingga bisnis dapat menawarkan produk dan layanan berbasis AI di pasar global yang berbeda. Departemen Perdagangan A.S. adalah salah satu lembaga yang bermitra dengan Singapura untuk memastikan interoperabilitas antara kerangka kerja tata kelola AI-nya.
Menurut IMDA, 10 organisasi telah menguji toolkit baru dan memberikan umpan balik, termasuk Google, Meta, Microsoft, Singapore Airlines dan Standard Chartered Bank.
IMDA menambahkan bahwa AI Verify mematuhi prinsip dan pedoman etika AI yang diakui secara global, termasuk yang ada di Eropa dan OECD, yang mencakup bidang-bidang utama seperti pengulangan, ketahanan, keadilan, dan kesejahteraan sosial dan lingkungan. Kerangka kerja ini juga memanfaatkan rezim pengujian dan sertifikasi yang mencakup komponen seperti keamanan siber dan tata kelola data.
IMDA mengatakan Singapura akan berusaha untuk terus mengembangkan validasi AI untuk dimasukkan dalam standar tata kelola AI internasional dan tolok ukur industri. Dengan kontribusi dan umpan balik industri, lebih banyak fitur akan ditambahkan secara bertahap.
Pada bulan Februari, negara Asia juga merilis perangkat lunak untuk membantu lembaga keuangan memastikan mereka menggunakan kecerdasan buatan secara bertanggung jawab, dan lima kertas putih untuk memandu perusahaan dalam mengevaluasi penerapan mereka terhadap prinsip-prinsip yang telah ditetapkan. Otoritas Moneter Singapura (MAS), regulator industri, mengatakan dokumen tersebut merinci cara untuk memasukkan prinsip-prinsip FEAT – keadilan, etika, akuntabilitas, dan transparansi – ke dalam penggunaan kecerdasan buatan di sektor jasa keuangan.