(Source: IBM)
Dalam konteks kecerdasan buatan (AI) yang terus berkembang, penting untuk memastikan bahwa implementasinya melampaui sekadar kemajuan teknis. Kita perlu berfokus pada pembangunan sistem AI yang mengedepankan etika dan akuntabilitas. Keberhasilan inisiatif AI tidak hanya diukur dari kinerja model secara teknis, melainkan juga dari seberapa dalam prinsip-prinsip etis AI tertanam dalam strategi, alur kerja, dan proses pengambilan keputusan organisasi.
Mengukur perilaku manusia yang berinteraksi dengan sistem AI adalah aspek krusial dalam menilai keberhasilan tata kelola AI. Metrik tersebut harus mencakup cara individu berinteraksi dengan AI dan bagaimana perilaku ini selaras dengan tujuan tata kelola. Pertanyaan penting yang harus diajukan adalah perilaku manusia apa yang sedang diukur terkait penggunaan AI, dan perilaku manusia apa yang ingin dilihat lebih banyak oleh klien dalam penggunaan AI. Hal ini menekankan perlunya fokus pada dimensi manusiawi dari AI, bukan hanya pada aspek teknisnya.
Pendekatan design thinking terbukti sangat efektif. Metode ini, seperti yang digunakan oleh IBM AI Design Guild, membantu memastikan bahwa semua pemangku kepentingan yang relevan terutama para ahli domain terlibat sejak awal, contohnya keterlibatan ahli kepolisian dalam dewan tata kelola AI. Fungsi design thinking ini meliputi memastikan kehadiran orang yang tepat dalam diskusi, mengidentifikasi masalah inti yang ingin dipecahkan, memverifikasi ketersediaan dan pemahaman data yang benar sesuai dengan perspektif ahli domain, menentukan prinsip-prinsip AI taktis yang harus tercermin dalam sistem untuk membangun kepercayaan publik, menetapkan persyaratan fungsional dan non-fungsional untuk mewujudkan prinsip-prinsip tersebut, mengidentifikasi efek yang tidak diinginkan dari model AI, merancang mitigasi risiko yang disengaja, mengidentifikasi semua persona yang perlu dilayani oleh sistem, serta mengomunikasikan dengan jelas tentang penggunaan AI yang dimaksudkan dan tidak dimaksudkan.
Keberhasilan tata kelola AI juga diukur dari apakah karyawan yang menggunakan AI benar-benar memahami risiko, sifat data, bias, dan dampak AI yang berbeda. Penting untuk mengetahui apakah mereka memahami arti bertanggung jawab, dan apakah mereka diukur dengan cara yang mendorong akuntabilitas tersebut. Seringkali, karyawan didorong menggunakan AI demi produktivitas, namun tidak diukur berdasarkan hasil yang bertanggung jawab, bahkan terkadang dihukum karena mempertanyakan AI. Oleh karena itu, metrik harus mencerminkan insentif bagi individu agar bertindak sebagai konsumen AI yang kritis, membantu melatih AI, atau setidaknya memberitahu pihak lain untuk mendorong hasil yang lebih bertanggung jawab.
Fungsi utama metrik tata kelola AI adalah untuk membangun kepercayaan. Kepercayaan ini tercipta melalui budaya yang mengutamakan kerendahan hati, inklusivitas, keamanan psikologis, dan melibatkan individu dengan beragam pengalaman hidup. Hasilnya, tim akan memiliki bahasa yang jelas untuk mengomunikasikan hal-hal yang perlu dikembangkan atau diperoleh demi mengelola solusi AI secara bertanggung jawab.