Mengapa perusahaan membutuhkan penjelasan melalui kecerdasan buatan


Membangun program kecerdasan buatan yang sukses tidak berakhir dengan membangun sistem AI yang tepat. Program-program ini juga perlu dibangun dalam sebuah organisasi, dan pemangku kepentingan—terutama karyawan dan pelanggan—harus memiliki keyakinan bahwa program AI akurat dan dapat dipercaya.

Begitulah kasus untuk membangun kemampuan menjelaskan kecerdasan buatan di seluruh perusahaan, menurut pengarahan penelitian baru oleh Ida Someh, Barbara Wixom, dan Cynthia Beath dari Pusat Penelitian Sistem Informasi MIT. Para peneliti mendefinisikan kemampuan menjelaskan kecerdasan buatan sebagai “kemampuan untuk mengelola inisiatif AI sedemikian rupa sehingga model bernilai tambah, sesuai, representatif, dan andal.”

Baca laporannya

Para peneliti mengidentifikasi empat karakteristik program kecerdasan buatan yang dapat membuat mereka sulit dipercaya dan cara untuk mengatasinya:

Also Read :  Menteri Keuangan Janet Yellen mengatakan ekonomi AS telah gagal memenuhi janji negara akan kesempatan yang sama bagi semua.

1. Nilai yang belum terbukti. Karena kecerdasan buatan masih relatif baru, tidak ada daftar ekstensif kasus penggunaan yang terbukti. Eksekutif sering tidak yakin apakah dan bagaimana perusahaan mereka akan mendapat manfaat dari program AI.

Untuk mengatasi hal ini, perusahaan harus menciptakan sesuatu Praktik perumusan nilaimembantu orang membenarkan bahwa AI dapat menjadi investasi yang baik, dengan cara yang menarik bagi berbagai pemangku kepentingan.

2. Opasitas model. Kecerdasan buatan bergantung pada matematika dan statistik yang kompleks, sehingga sulit untuk mengetahui apakah suatu model menghasilkan hasil yang akurat dan sesuai serta etis.

Untuk mengatasi hal ini, perusahaan harus mengembangkan lebih lanjut Praktik Pengambilan Keputusan, yang membantu tim kecerdasan buatan mengungkap matematika dan perhitungan di balik model dan mengajari orang-orang yang menggunakannya cara kerjanya. Praktik-praktik ini dapat mencakup penggunaan visualisasi seperti bagan dan grafik.

Also Read :  Peneliti Pembelajaran Mesin dalam Neurologi di NORWEGIAN UNIVERSITY OF SCIENCE & TECHNOLOGY - NTNU

Artikel Terkait

3. Model melayang. Sebuah model AI akan memberikan hasil yang bias jika data yang digunakan untuk melatihnya bias. Dan model dapat “melayang” dari waktu ke waktu, yang berarti mereka dapat mulai menghasilkan hasil yang tidak akurat saat dunia berubah atau data yang salah dimasukkan ke dalam model.

praktik untuk menghilangkan prasangka dapat membantu tim AI mengatasi penyimpangan dan bias model dengan menunjukkan cara model membuat keputusan. Misalnya, jika tim menemukan pola yang tidak biasa, pemangku kepentingan dapat meninjaunya.

4. Aplikasi tanpa pikiran. Hasil dari model AI belum final. Memperlakukan mereka seperti itu bisa berisiko, terutama bila diterapkan pada kasus atau konteks baru.

Also Read :  Penjelasan: 'Kegilaan yang tidak kompeten' yang menghancurkan ekonomi Inggris

Perusahaan dapat memperbaiki ini dengan menciptakan Praktek Batasyang memberikan panduan tentang cara menggunakan aplikasi AI dengan penuh perhatian dan menghindari hasil yang tidak diharapkan atau konsekuensi yang tidak diinginkan.

Kemampuan menjelaskan kecerdasan buatan adalah bidang yang sedang berkembang. Tim yang mengerjakan proyek AI “membuat buku pedoman dengan cepat,” tulis para peneliti. Organisasi harus secara proaktif mengembangkan dan berbagi praktik terbaik.

Para peneliti merekomendasikan untuk memulai dengan: mengidentifikasi entitas dan organisasi yang telah membuat penjelasan AI yang efektif; Mengidentifikasi praktik yang telah diadopsi oleh tim proyek AI organisasi itu sendiri; dan terus menguji praktik yang paling menjanjikan dan melembagakan yang terbaik.

lanjutkan membaca: 5 Alat Monetisasi Data yang Mendukung Inisiatif AI



Source link