Piagam Algoritma Pemerintah “oke, bisa lebih baik” – ulasan


Tanpa judul

Tahun pertama penerapan piagam algoritma pemerintah baru saja ditinjau.
Foto: terkirim

Tidak semua agensi yakin apakah algoritme yang semakin mereka gunakan untuk membuat keputusan penting itu bias atau tidak.

Ada juga sedikit kesempatan bagi orang untuk menentang keputusan yang dibuat oleh algoritma sektor publik yang kuat.

Ini adalah beberapa temuan review dari tahun pertama beroperasinya piagam algoritma pemerintah.

Tidak ada rencana aksi untuk mengatasi temuan, dan opsi kebijakan tentang etika data hanya dalam tahap awal pengembangan, seperti yang ditunjukkan oleh tanggapan Undang-Undang Informasi Resmi.

Algoritma adalah kreasi matematika yang memecahkan masalah. Mereka tersebar di pemerintah dan industri, dan digunakan, misalnya, dalam keputusan perekrutan atau oleh pengadilan untuk menentukan risiko yang ditimbulkan seseorang; Netflix menggunakan algoritme untuk menghormati preferensi Anda; dan dokter untuk mendiagnosis suatu penyakit atau memprediksi pandemi berikutnya.

Secara keseluruhan, ulasan baru tahun pertama piagam: “Oke, bisa lebih baik”.

28 organisasi yang telah mendaftar – mulai dari Oranga Tamariki hingga polisi dan pendidikan – mengatakan kepada pengulas bahwa mereka menyukai maksud dari piagam tersebut, meskipun dalam praktiknya mereka merasa agak kabur dan sering kekurangan sumber daya untuk mengikutinya dengan benar.

“Sebagian besar lembaga merasa bahwa ada kesenjangan antara prinsip-prinsip tingkat tinggi dari Piagam dan praktik nyata untuk mematuhi setiap komitmen.”

Baca Juga:  MIT AI Image Generator System membuat model seperti DALL-E 2 lebih kreatif

“Pengukuran Prasangka”

Misalnya, “mengukur bias dan memastikan pengawasan manusia yang memadai terhadap algoritme bukanlah sesuatu yang dimiliki semua lembaga,” kata tinjauan tersebut.

Beberapa telah berjuang untuk “berkompromi antara berbagai jenis bias,” katanya.

“Sebagian besar lembaga tidak memiliki kapasitas untuk mengevaluasi secara kritis solusi yang dapat mendukung manajemen bias, transparansi, dan pengawasan manusia yang efektif.”

Masalah lain: “Saat ini, hanya ada sedikit peluang bagi warga Selandia Baru untuk meminta bantuan individu terhadap keputusan yang dibuat tentang mereka yang telah diinformasikan oleh suatu algoritme,” kata tinjauan tersebut.

Juga, kepatuhan sangat kurang ajar.

“Beberapa penegakan yang lebih kuat mungkin diperlukan untuk menjaga izin sosial.”

Ini tampaknya bertentangan dengan prinsip OECD tentang kecerdasan buatan, yang menyatakan bahwa cara kerja sistem harus diungkapkan sehingga orang dapat menantangnya.

Tinjauan lokal menyarankan untuk membuat registri di seluruh pemerintah agar publik tahu algoritma apa yang melakukan apa.

Beberapa agensi tidak mengetahuinya sendiri – mereka “baru di awal proses ini atau telah memutuskan untuk fokus pada beberapa contoh terpilih”.

Yang lain telah membuat inventaris penuh; Beberapa telah menerbitkan algoritme mereka secara online, dimotivasi oleh piagam.

Tinjauan tersebut menekankan perlunya mendapatkan kepercayaan publik. “Kesadaran publik tentang penggunaan oleh lembaga pemerintah terbatas.”

Baca Juga:  Investor mengambil asuransi terhadap aksi jual lebih lanjut di pasar

Namun ironisnya, ulasan itu sendiri tidak disebarluaskan.

“Pertanyaan Menakutkan”

Piagam tersebut berusaha untuk mendorong lembaga-lembaga untuk menyeimbangkan privasi dan transparansi, menghindari prasangka dan mencerminkan Te Tiriti.

Algoritma yang tertanam di beberapa lembaga pemerintah terbesar di Selandia Baru, duduk di beberapa data yang paling sensitif pada orang.

Mereka “mengungkapkan wawasan yang tidak dapat dengan mudah terungkap melalui analisis manusia saja,” kata humas pemerintah.

“Algoritme ini dapat digunakan untuk membantu pemerintah lebih memahami Selandia Baru dan Selandia Baru.”

Namun, cara kerja algoritma “kotak hitam” yang misterius – disebut demikian karena para ilmuwan sendiri tidak tahu bagaimana membuat keputusan – telah memicu ketakutan tentang ke mana kecerdasan buatan medis mungkin akan membawa kita.

Teknologi ini melampaui penelitian tentang bahaya dan manfaat algoritme publik, yang masih dalam tahap awal.

“Sistem algoritme sektor publik menimbulkan pertanyaan menakutkan tentang bagaimana memastikan transparansi, akuntabilitas, dan kontrol pemerintah atas sistemnya sendiri,” menurut sebuah studi tahun 2021.

“Tidak ada otoritas pengawasan yang jelas”

Selandia Baru adalah salah satu yang pertama memiliki piagam algoritma; Inggris telah mengumumkan standar algoritmanya sendiri yang akan diluncurkan tahun ini.

Australia telah dikritik karena bertindak hati-hati atas penyalahgunaan algoritma, meskipun regulator di sana sekarang mengambil tindakan.

Bahkan masing-masing kota seperti New York sudah mulai bereksperimen dengan transparansi wajib.

Baca Juga:  Pasar AS ditutup lebih rendah secara signifikan, Apple meluncur setelah downgrade

Tetapi tinjauan lokal, sambil mencatat bahwa warga Selandia Baru tidak memiliki jalan lain untuk menantang hasil algoritmik, tidak mengatakan apa pun tentang apa yang harus dilakukan tentang hal itu.

Mengenai masalah bias, disarankan untuk menyediakan lebih banyak sumber daya dan panduan tentang cara mengevaluasi perangkat lunak.

Lembaga, ditemukan, sering terbang buta.

“Badan-badan tersebut menyadari bahwa tidak ada otoritas pengawasan yang jelas” dan terpaksa melakukan pemantauan sendiri.

Dia merekomendasikan pembentukan otoritas pengawas.

Beberapa lembaga menyarankan audit yang tidak mengikat.

Larangan langsung

Tinjauan tersebut mengatakan akan berguna untuk melarang beberapa algoritma secara langsung, seperti yang telah dilakukan Eropa dengan sistem AI yang digunakan untuk “pengawasan tanpa pandang bulu”.

28 penandatangan mengatakan kepada pengulas bahwa mereka berada dalam ruang hampa yang terlalu besar.

“Sebagian besar agensi sebagian besar menangani sendiri komitmen piagam mereka, dengan sedikit pengetahuan tentang bagaimana kinerja agensi lain.”

Stats NZ sekarang menilai “kesenjangan dan masalah” sendiri dengan algoritme dan akan membagikannya dengan otoritas lain, tanggapan OIA menunjukkan.

Dalam pengarahan kepada Menteri Statistik David Clark, dia diminta untuk menunjukkan dukungan luas tetapi kurangnya sumber daya untuk “mewujudkan perubahan yang diinginkan dalam penggunaan algoritma yang etis”.



Source link