Introducing
Your new presentation assistant.
Refine, enhance, and tailor your content, source relevant images, and edit visuals quicker than ever before.
Trending searches
Wahyuni Fithratul Zalmi
Stuart J. Russell and Peter Norvig, Artificial Intelligence : A Modern Approach., Fourth Edition
The Turing test, proposed by Alan Turing (1950), was designed as a thought experiment that
would sidestep the philosophical vagueness of the question “Can a machine think?”
Komputer akan lulus tes ini jika :
seorang interogator manusia
(telah mengajukan beberapa pertanyaan tertulis),
tidak dapat mengatakan apakah jawaban tertulis tersebut berasal dari manusia atau dari komputer
Komputer cerdas membutuhkan kemampuan berikut:
1. Natural language processing
Pemrosesan bahasa alami untuk berkomunikasi dengan baik dalam
bahasa manusia
2. Knowledge representation
Representasi pengetahuan untuk menyimpan apa yang diketahui
atau didengarnya;
3. Automated reasoning
Penalaran otomatis untuk menjawab pertanyaan dan menarik
kesimpulan baru;
4. Machine learning
Pembelajaran mesin untuk beradaptasi dengan keadaan baru dan
untuk mendeteksi serta memperkirakan pola.
Peneliti lain mengusulkan tes turing total, yang membutuhkan interaksi dengan dengan objek dan orang di dunia nyata.
Untuk lulus tes Turing total, sebuah robot akan membutuhkan
1. Computer vision
visi komputer dan pengenalan suara untuk memahami dunia;
2. Robotics
robotika untuk memanipulasi objek dan bergerak.
Untuk mengatakan bahwa sebuah program berpikir seperti manusia, kita harus mengetahui bagaimana manusia berpikir. Kita bisa belajar tentang pemikiran manusia dalam tiga cara:
1. Introspection
introspeksi-mencoba menangkap pikiran kita sendiri saat
pikiran itu berjalan;
2. Psychological experiments
eksperimen psikologis-mengamati seseorang saat beraksi;
3. Brain imaging
pencitraan otak-mengamati otak yang sedang bekerja.
Setelah memiliki teori yang cukup tepat tentang pikiran,
kita dapat mengekspresikan teori tersebut sebagai program komputer.
Jika perilaku input-output program sesuai dengan perilaku manusia, maka itu adalah bukti bahwa beberapa mekanisme program juga dapat beroperasi pada manusia.
Filsuf Yunani Aristoteles mencoba mengkodifikasikan "pemikiran yang benar" yaitu: proses penalaran yang tak terbantahkan.
Silogisme yang dibuatnya memberikan pola-pola untuk menyusun argumen yang selalu menghasilkan kesimpulan yang benar ketika diberikan premis-premis yang benar.
Ahli logika pada abad ke-19 mengembangkan notasi yang tepat untuk pernyataan tentang objek di dunia dan hubungan di antara mereka. Tradisi yang disebut logis dalam AI berharap untuk membangun program-program semacam itu untuk menciptakan sistem yang cerdas.
Teori probabilitas memungkinkan penalaran yang ketat dengan informasi yang tidak pasti.
Pembangunan model pemikiran rasional yang komprehensif, dari informasi perseptual mentah hingga pemahaman tentang prediksi tentang masa depan.
Teori Tindakan rasional dan Pemikiran rasional digunakan untuk menghasilkan perilaku cerdas.
Agen yang rasional adalah agen yang bertindak untuk mencapai hasil terbaik atau, ketika ada ketidakpastian, hasil terbaik yang diharapkan.
Salah satu cara untuk bertindak rasional adalah menyimpulkan bahwa tindakan tertentu adalah yang terbaik dan kemudian bertindak berdasarkan kesimpulan tersebut.
Semua keterampilan yang dibutuhkan untuk tes Turing juga memungkinkan agen untuk bertindak secara rasional.
Pendekatan agen rasional pada AI memiliki 2 keunggulan dibandingkan pendekatan lainnya :
1. Kesimpulan yang benar hanyalah salah satu dari beberapa
mekanisme yang mungkin untuk mencapai rasionalitas.
2. Sesuai dengan perkembangan ilmiah. Standar rasionalitas
didefinisikan dengan baik secara matematis dan
sepenuhnya umum.
AI berfokus pada studi dan pembangunan agen yang melakukan hal yang benar.
Apa yang dianggap sebagai hal yang benar ditentukan oleh tujuan yang kita berikan kepada agen sebagai model standar.
Perbaikan model standar memperhitungkan fakta bahwa rasionalitas yang sempurna selalu mengambil tindakan yang optimal (tidak dapat dilakukan di lingkungan yang kompleks). Tuntutan komputasi terlalu tinggi dan titik awal yang baik untuk analisis teoritis.
Rasionalitas yang terbatas bertindak secara tepat ketika tidak ada cukup waktu untuk melakukan semua perhitungan yang diinginkan.
Masalah dalam mencapai kesepakatan antara preferensi kita yang sebenarnya dan tujuan yang kita dimasukkan ke dalam mesin disebut masalah penyelarasan nilai (nilai atau tujuan yang dimasukkan ke dalam mesin harus diselaraskan dengan nilai-nilai yang dimiliki manusia)
Jika kita tidak dapat mentransfer tujuan-tujuan tersebut dengan sempurna ke mesin, maka kita membutuhkan formulasi baru-di mana mesin mengejar tujuan kita dan menginginkan agen yang terbukti bermanfaat bagi manusia.
Pendekatan agen-rasional pada AI memiliki dua keunggulan dibandingkan pendekatan lainnya :
1. Kesimpulan yang benar hanyalah salah satu dari beberapa mekanisme yang mungkin untuk mencapai rasionalitas.
2. Sesuai dengan perkembangan ilmiah. Standar rasionalitas didefinisikan dengan baik secara matematis dan sepenuhnya umum.
Setiap generasi perangkat keras komputer telah membawa peningkatan kecepatan dan kapasitas serta penurunan harga, sebuah tren yang terekam dalam hukum Moore.
Russel dan Norvig, baru saja mulai melihat perangkat keras yang disesuaikan untuk aplikasi AI, seperti unit pemrosesan grafis (GPU), unit pemrosesan tensor (TPU), dan mesin skala wafer (WSE).
Komputasi kuantum menjanjikan akselerasi yang jauh lebih besar untuk beberapa subkelas dari algoritma AI, meski belum praktis.
Norbert Wiener dkk, Like Craik, menantang ortodoksi behaviorisme,
(mereka memandang perilaku purposif sebagai muncul dari mekanisme pengaturan yang mencoba meminimalkan "kesalahan" - perbedaan antara antara keadaan saat ini dan keadaan tujuan.
Wiener dkk ,menyelenggarakan serangkaian konferensi berpengaruh yang mengeksplorasi model matematika dan komputasi kognisi yang baru.
Ashby , )(kecerdasan dapat diciptakan dengan menggunakan perangkat homeostatis yang berisi loop umpan balik yang tepat untuk mencapai perilaku adaptif yang stabil.)
Linguistik modern dan AI "lahir" pada waktu yang hampir bersamaan, dan tumbuh tumbuh bersama, bersinggungan dalam bidang hibrida yang disebut linguistik komputasi atau pemrosesan bahasa alami.
Masalah pemahaman bahasa ternyata jauh lebih kompleks. Memahami bahasa membutuhkan pemahaman tentang subjek dan konteks, bukan hanya pemahaman tentang struktur kalimat.
Sebagian besar pekerjaan awal dalam representasi pengetahuan (studi tentang bagaimana menempatkan pengetahuan ke dalam bentuk yang dapat yang dapat digunakan oleh komputer) terkait dengan bahasa dan diinformasikan oleh penelitian di bidang linguistik, yang pada gilirannya berhubungan dengan penelitian selama beberapa dekade tentang analisis filosofis bahasa
Karya pertama yang sekarang secara umum dikenal sebagai AI dilakukan oleh Warren McCulloch dan Walter Pitts (1943) mereka memanfaatkan 3 sumber : pengetahuan tentang fisiologi dasar dan fungsi neuron di otak; analisis formal logika proposisional menurut Russell dan Whitehead; dan teori komputasi Turing.
Mereka mengusulkan sebuah model neuron buatan di mana setiap neuron dicirikan sebagai "hidup" atau "mati", dengan peralihan ke "hidup" terjadi sebagai respons terhadap rangsangan oleh sejumlah neuron tetangga. Keadaan neuron dipahami sebagai "secara faktual setara dengan proposisi yang mengusulkan rangsangan yang memadai."
Mereka menunjukkan, sebagai contoh, bahwa setiap fungsi yang dapat dikomputasi, dapat dikomputasi oleh beberapa jaringan neuron yang terhubung, dan bahwa semua penghubung logis (AND, OR, NOT, dll) dapat diimplementasikan oleh struktur jaringan sederhana. McCulloch dan Pitts juga menyarankan bahwa jaringan yang didefinisikan dengan tepat dapat belajar.
Donald Hebb, mendemonstrasikan sebuah aturan pembaruan sederhana untuk memodifikasi kekuatan koneksi antar neuron. Aturannya, yang sekarang disebut pembelajaran Hebbian, tetap menjadi model yang berpengaruh hingga hari ini.
Newell dan Simon, sebuah sistem pembuktian teorema matematika yang disebut Logic Theorist (LT). Menemukan sebuah program komputer yang mampu berpikir secara non-numerik, dan dengan demikian memecahkan masalah pikiran dan tubuh.
Newell dan Simon menindaklanjuti kesuksesan mereka dengan LT dengan General Problem Solver (GPS).
GPS (berpikir secara manusiawi) mempertimbangkan sub-tujuan dan tindakan yang mungkin dilakukan mirip dengan yang dilakukan oleh manusia. yang dilakukan manusia dalam memecahkan masalah yang sama.
GPS (model kognisi) "sistem simbol fisik memiliki sarana yang diperlukan dan cukup untuk tindakan cerdas secara umum." Maksudnya bahwa sistem apapun (manusia atau yang menunjukkan kecerdasan harus beroperasi dengan memanipulasi struktur data yang terdiri dari simbol.
(IBM) Nathaniel Rochester dkk menghasilkan beberapa program AI pertama.
Herbert Gelernter ( membuat Geometry Theorem Prover) cikal bakal pembuktian teorema matematika modern.
Arthur Samuel pada catur (draft), metode pembelajaran penguatan, program samuel belajar bermain pada tingkat amatir yang kuat. Dengan demikian, ia membantah gagasan bahwa komputer hanya dapat melakukan apa yang diperintahkan: programnya dengan cepat belajar memainkan permainan yang lebih baik daripada penciptanya.
John McCarthy membuat 2 kontribusi penting untuk AI. Dalam MIT AI Lab Memo No. 1, ia mendefinisikan bahasa tingkat tinggi Lisp.
Dalam makalahnya berjudul Program dengan Akal Sehat, ia mengajukan proposal konseptual untuk sistem AI berdasarkan pengetahuan dan penalaran tentang Advice Taker, sebuah program hipotetis yang akan mewujudkan pengetahuan umum umum dunia dan dapat menggunakannya untuk mendapatkan rencana tindakan.
Advice Taker mewujudkan prinsip-prinsip utama representasi pengetahuan dan penalaran: bahwa itu berguna memiliki representasi formal dan eksplisit dari dunia dan cara kerjanya dan untuk dapat nulasi representasi tersebut dengan proses deduktif.
Makalah ini mempengaruhi jalannya AI dan tetap relevan hingga saat ini
Minsky (untuk membuat program bekerja dan akhirnya mengembangkan pandangan anti-logika). Di MIT, Minsky mengawasi serangkaian mahasiswa yang memilih masalah terbatas yang tampaknya membutuhkan kecerdasan untuk menyelesaikannya. Domain terbatas ini dikenal sebagai microworld.
McCarthy (representasi dan penalaran dalam logika formal).
Dunia mikro yang paling terkenal adalah blocks world, yang terdiri dari sekumpulan balok padat yang diletakkan di atas meja (atau lebih sering, simulasi meja) tugasnya menyusun ulang balok-balok tersebut dengan cara tertentu menggunakan tangan robot.
Shmuel Winograd dan Jack Cowan, menunjukkan bagaimana sejumlah besar elemen dapat secara kolektif mewakili konsep individu, dengan peningkatan yang sesuai dalam hal ketahanan dan paralelisme.
Bernie Widrow dan Hoff, (menyempurnakan metode pembelajaran Hebb) yang menyebut jaringannya sebagai adalines.
Frank Rosen blatt, dengan perceptronnya.
Block dkk , (teorema konvergensi perceptron) mengatakan bahwa algoritma pembelajaran dapat menyesuaikan kekuatan koneksi dari perceptron untuk mencocokkan data masukan apa pun, asalkan kecocokan tersebut ada.
Sejak awal, para peneliti AI tidak malu-malu membuat prediksi tentang keberhasilan mereka. Simon memprediksi bahwa dalam waktu 10 tahun, komputer akan menjadi juara catur dan teorema matematika yang signifikan akan dibuktikan oleh mesin. Prediksi ini menjadi kenyataan dalam waktu 40 tahun.
Ada 2 alasan utama untuk kegagalan ini:
1. Banyak sistem AI awal didasarkan terutama pada "introspeksi berdasarkan
informasi" tentang bagaimana manusia melakukan suatu tugas, bukan
pada analisis yang cermat terhadap tugas tersebut, apa yang dimaksud
dengan solusi, dan apa yang perlu dilakukan oleh sebuah algoritme untuk
menghasilkan solusi yang andal.
2. Kurangnya apresiasi terhadap sulitnya menyelesaikan banyak masalah
yang ingin dipecahkan oleh AI. Sebagian besar sistem pemecahan masalah
awal bekerja dengan mencoba berbagai kombinasi langkah hingga
solusinya ditemukan.
Sebelum teori komputasi kompleksitas dikembangkan, teori plexity dikembangkan, secara luas dianggap bahwa "meningkatkan" ke masalah yang lebih besar hanyalah masalah perangkat keras yang lebih cepat dan memori yang lebih besar.
Fakta bahwa sebuah program dapat menemukan solusi pada prinsipnya tidak berarti bahwa program tersebut mengandung mekanisme yang diperlukan untuk menemukannya dalam praktik
Ilusi kekuatan komputasi yang tidak terbatas pada pemecahan masalah program. Eksperimen awal dalam evolusi mesin (sekarang disebut pemrograman genetik)
Membuat serangkaian mutasi kecil yang tepat pada program kode mesin, dapat menghasilkan sebuah program dengan kinerja yang baik untuk tugas tertentu.
Adanya keterbatasan mendasar pada struktur dasar yang digunakan untuk menghasilkan perilaku cerdas. Buku Minsky dan Papert yang berjudul Perceptrons, membuktikan bahwa, meskipun perceptron (bentuk sederhana dari jaringan syaraf) dapat terbukti dapat mempelajari apa pun yang dapat mereka wakili, mereka hanya dapat mewakili sedikit. Secara khusus, perceptron dua masukan tidak dapat dilatih untuk mengenali ketika dua masukannya berbeda.
Kelley and bryson, Algoritma pembelajaran back-propagation baru menyebabkan kebangkitan besar dalam penelitian jaringan syaraf.
Gambaran pemecahan masalah yang muncul selama dekade pertama penelitian AI adalah mekanisme pencarian tujuan umum yang mencoba merangkai langkah-langkah penalaran dasar untuk menemukan solusi lengkap.Pendekatan semacam itu disebut sebagai metode yang lemah
Alternatif dari metode yang lemah adalah dengan menggunakan pengetahuan yang lebih kuat dan spesifik untuk domain tertentu yang memungkinkan langkah-langkah penalaran yang lebih besar dan dapat dengan lebih mudah menangani kasus-kasus yang biasanya terjadi di bidang keahlian yang sempit.
Buchanan dkk (Program DENDRAL) adalah contoh awal dari pendekatan ini, memecahkan masalah dalam menyimpulkan struktur molekuler dari informasi yang diberikan oleh spektrometer massa. Pentingnya DENDRAL adalah bahwa ini adalah sistem intensif pengetahuan pertama yang berhasil: keahliannya berasal dari sejumlah besar aturan tujuan khusus.
Feigenbaum memulai Proyek Pemrograman Heuristik (HPP) untuk menyelidiki sejauh mana metodologi baru sistem pakar dapat diterapkan pada area lain.
Upaya besar berikutnya adalah sistem MYCIN untuk mendiagnosis infeksi darah. Dengan sekitar 450 aturan, MYCIN mampu bekerja sebaik beberapa ahli, dan jauh lebih baik daripada dokter junior.
Sistem ini memiliki 2 perbedaan utama dari DENDRAL :
1. Tidak ada model teoritis umum yang dapat digunakan untuk membuat aturan MYCIN disimpulkan. Aturan-aturan tersebut harus diperoleh dari wawancara ekstensif dengan para ahli.
2. Aturan-aturan tersebut harus mencerminkan ketidakpastian yang terkait dengan pengetahuan medis. MYCIN menggabungkan sebuah
kalkulus ketidakpastian yang disebut faktor kepastian sesuai dengan cara dokter menilai dampak bukti pada diagnosis
Sistem pakar komersial pertama yang sukses, R1, mulai beroperasi di Digital Equipment Corporation (McDermott, 1982).
Pentingnya pengetahuan domain juga terlihat jelas dalam bidang pemahaman bahasa alami. Terlepas dari keberhasilan sistem SHRDLU Winograd, metodenya tidak cenderung pada tugas-tugas yang lebih umum: untuk masalah-masalah seperti resolusi ambiguitas, ia menggunakan aturan-aturan sederhana yang bergantung pada lingkup kecil dunia blok.
Secara keseluruhan, industri AI berkembang pesat dari beberapa juta dolar pada tahun 1980 menjadi miliaran dolar pada tahun 1988, termasuk ratusan perusahaan yang membangun sistem pakar, sistem visi, robot, serta perangkat lunak dan perangkat keras yang dikhususkan untuk tujuan-tujuan ini.
Segera setelah itu muncul periode yang disebut "musim dingin AI," di mana banyak perusahaan jatuh karena gagal memenuhi janji-janji yang berlebihan.
Ternyata sulit untuk membangun dan memelihara sistem pakar untuk domain yang kompleks, sebagian karena metode penalaran yang digunakan oleh sistem rusak dalam menghadapi ketidakpastian dan sebagian karena sistem tidak bisa belajar dari pengalaman
4 kelompok berbeda yang menemukan kembali algoritma pembelajaran back-propagation.
Rumelhart dan McClelland , Algoritma ini diterapkan pada banyak masalah pembelajaran dalam ilmu komputer dan psikologi, dan penyebarannya secara luas hasil dalam koleksi Pemrosesan Terdistribusi Paralel.
Model-model yang disebut connectionist ini dilihat oleh beberapa orang sebagai pesaing langsung baik untuk model simbolis (Newell dan Simon) maupun pendekatan logis (McCarthy dkk).
Geoff Hinton (seorang tokoh dalam kebangkitan jaringan saraf) menggambarkan simbol sebagai "luminiferous aether of AI” percaya bahwa gelombang elektromagnetik merambat.
Mereka memiliki kemampuan untuk belajar dari contoh yang ada membandingkan nilai keluaran yang diprediksi dengan nilai sebenarnya pada suatu masalah dan memodifikasi parameter mengurangi perbedaannya.
Bidang pengenalan suara menggambarkan pola tersebut. Berbagai arsitektur dan pendekatan yang berbeda dicoba dan hanya bekerja pada beberapa contoh menggunakan model Model Markov tersembunyi (HMM).
Ada 2 aspek dari HMM yang relevan:
1. Didasarkan pada teori matematika memungkinkan para peneliti bicara untuk
membangun beberapa dekade hasil matematika yang dikembangkan di bidang lain.
2. Dihasilkan oleh proses pelatihan pada korpus besar data ucapan nyata, memastikan bahwa kinerjanya kuat, dan dalam tes buta yang ketat.
HMM meningkatkan skor akibatnya, teknologi ucapan dan bidang terkait pengenalan karakter tulisan tangan dibuat transisi ke aplikasi industri dan konsumen yang meluas.
HMM menyediakan kerangka kerja matematis untuk memahami dan memecahkan masalah.
Judea Pearl (1988), Penalaran Probabilistik dalam Sistem Cerdas menyebabkan penerimaan baru terhadap teori probabilitas dan keputusan dalam AI.
Pengembangan jaringan Bayesian oleh Pearl menghasilkan jaringan yang ketat dan efisien formalisme untuk merepresentasikan pengetahuan yang tidak pasti serta algoritma praktis untuk penalaran probabilistik. Perkembangan terbaru telah meningkatkan kekuatan ekspresif dari formalisme probabilistik.
Rich Sutton, menghubungkan pembelajaran penguatan yang telah digunakan dalam program bermain catur Arthur Samuel dengan teori proses keputusan Markov (MDP) yang dikembangkan di bidang riset operasi.
Banyak penelitian yang menghubungkan penelitian perencanaan AI dengan MDP, dan bidang pembelajaran penguatan menemukan aplikasi dalam robotika dan kontrol proses serta memperoleh dasar-dasar teori yang mendalam.
Salah satu konsekuensi dari penghargaan AI yang baru ditemukan untuk data, pemodelan statistik, optimasi, dan pembelajaran mesin adalah penyatuan kembali subbidang secara bertahap seperti visi komputer, robotika, pengenalan suara, sistem multiagen, dan pemrosesan bahasa alami.
Proses reintegrasi telah menghasilkan manfaat yang signifikan baik yaitu :
Aplikasi, penyebaran robot praktis berkembang pesat.
Pemahaman teoritis yang lebih baik tentang inti masalah AI.
Kemajuan daya komputasi dan penciptaan World Wide Web telah memfasilitasi penciptaan kumpulan data yang sangat besar.
Kumpulan data ini mencakup (triliunan kata teks, miliaran gambar, dan miliaran jam ucapan dan video, serta sejumlah besar data genom, data pelacakan kendaraan, clickstream data, data jejaring sosial, dll).
Yarowsky, berpengaruh tentang disambiguasi makna kata, kemunculan kata seperti "tanaman" tidak diberi label dalam kumpulan data untuk menunjukkan apakah kata tersebut merujuk pada flora atau pabrik.
Algoritme pembelajaran yang sesuai dapat mencapai akurasi lebih dari 96% pada tugas mengidentifikasi pengertian mana yang dimaksudkan dalam kalimat.
Banko dan Brill, peningkatan kinerja yang diperoleh dari peningkatan ukuran kumpulan data sebesar 2 atau 3 kali lipat lebih besar daripada peningkatan apa pun yang dapat diperoleh dari mengutak-atik algoritme
Hays dan Efros,mengembangkan metode cerdas untuk memadukan piksel dari gambar yang serupa; teknik ini bekerja dengan buruk dengan basis data yang hanya terdiri dari ribuan gambar tetapi melewati ambang batas kualitas dengan jutaan gambar.
Deng dkk, ketersediaan puluhan jutaan gambar dalam database ImageNet memicu revolusi dalam bidang visi komputer.
Havenstein, Ketersediaan data besar dan pergeseran ke arah pembelajaran mesin membantu AI memulihkan daya tarik komersial.
Deep learning mengacu pada pembelajaran mesin yang menggunakan beberapa lapisan elemen komputasi sederhana yang dapat disesuaikan.
LeCun, eksperimen dilakukan dengan jaringan dalam bentuk jaringan saraf convolutional, menemukan keberhasilan dalam pengenalan digit tulisan tangan
Pada tahun 2011, metode pembelajaran mendalam benar-benar berkembang pesat. Ini terjadi pertama kali dalam pengenalan suara dan kemudian dalam pengenalan objek visual.
Krizhevsky dkk, pengklasifikasian gambar ke dalam salah satu dari seribu kategori dalam kompetisi ImageNet 2012 menunjukkan peningkatan dramatis atas sistem sebelumnya, yang sebagian besar didasarkan pada buatan tangan fitur.
Sejak saat itu, sistem deep learning telah melampaui kinerja manusia pada beberapa tugas penglihatan. Peningkatan serupa telah dilaporkan dalam pengenalan suara, penerjemahan mesin, diagnosis medis, dan bermain game.
Silver dkk, penggunaan jaringan yang dalam jaringan untuk mewakili fungsi evaluasi berkontribusi pada kemenangan ALPHAGO atas pemain Go manusia terkemuka. Keberhasilan ini menyebabkan kebangkitan minat terhadap AI di setiap kalangan.
Deep Learning sangat bergantung pada ketersediaan data pelatihan dalam jumlah besar, dan pada beberapa trik algoritmik, perangkat keras yang khusus (misalnya, GPU, TPU, atau FPGA) dapat mengkonsumsi 10 pangkat 17 operasi per detik, sebagian besar dalam bentuk operasi matriks dan vektor yang sangat paralel.
Studi 100 Tahun tentang AI di Universitas Stanford (juga dikenal sebagai AI100) mengadakan panel para ahli untuk memberikan laporan tentang kondisi terkini AI.
Stone dkk, Grosz, "Peningkatan substansial dalam penggunaan AI di masa depan aplikasi AI di masa depan, termasuk lebih banyak mobil tanpa pengemudi, diagnostik perawatan kesehatan, dan perawatan yang ditargetkan, dan bantuan fisik untuk perawatan lansia dapat diharapkan" dan bahwa "Masyarakat sekarang berada pada titik krusial penting dalam menentukan bagaimana menggunakan teknologi berbasis AI dengan cara yang mempromosikan daripada bukannya menghalangi nilai-nilai demokrasi seperti kebebasan, kesetaraan, dan transparansi." AI100 juga menghasilkan Indeks AI di aiindex.org untuk membantu melacak kemajuan.
- Publikasi: Makalah AI meningkat 20 kali lipat antara tahun 2010 dan 2019 menjadi sekitar 20.000 per tahun. Kategori yang paling populer adalah pembelajaran mesin. (Makalah pembelajaran mesin di arXiv.org meningkat dua kali lipat setiap tahun dari 2009 hingga 2017.) Visi komputer dan pemrosesan bahasa alami adalah yang paling populer berikutnya.
- Sentimen: Sekitar 70% artikel berita tentang AI bersifat netral, tetapi artikel dengan nada positif meningkat dari 12% pada tahun 2016 menjadi 30% pada tahun 2018. Masalah yang paling umum adalah masalah etika: kerahasiaan data dan bias algoritma.
- Mahasiswa: Pendaftaran kursus meningkat 5 kali lipat di AS dan 16 kali lipat secara internasional dari data awal tahun 2010. AI adalah spesialisasi paling populer dalam Ilmu Komputer.
- Keragaman: Profesor AI di seluruh dunia terdiri dari 80% pria, 20% wanita. Jumlah yang sama berlaku untuk mahasiswa program doktoral dan karyawan industri.
- Konferensi: Kehadiran di NeurIPS meningkat 800% sejak tahun 2012 menjadi 13.500 peserta. Konferensi-konferensi lain mengalami pertumbuhan tahunan sekitar 30%.
- Industri: Startup AI di AS meningkat 20 kali lipat menjadi lebih dari 800.
- Internasionalisasi: Tiongkok menerbitkan lebih banyak makalah per tahun daripada AS dan sekitar sebanyak seluruh Eropa. Namun, dalam dampak berbobot kutipan, penulis AS unggul 50% lebih unggul dari penulis Cina. Singapura, Brasil, Australia, Kanada, dan India adalah negara dengan pertumbuhan tercepat negara yang paling cepat berkembang dalam hal jumlah perekrutan AI.
- Penglihatan: Tingkat kesalahan untuk deteksi objek (seperti yang dicapai dalam LSVRC, Large-Scale Visual Recognition Challenge) meningkat dari 28% pada tahun 2010 menjadi 2% pada tahun 2017, melebihi kinerja manusia. Akurasi dalam menjawab pertanyaan visual terbuka (VQA) meningkat dari 55% menjadi 68% sejak tahun 2015, tetapi masih tertinggal dari performa manusia di angka 83%.
- Kecepatan: Waktu pelatihan untuk tugas pengenalan gambar turun dengan faktor 100 hanya dalam waktu hanya dalam dua tahun terakhir. Jumlah daya komputasi yang digunakan dalam aplikasi AI teratas adalah dua kali lipat setiap 3,4 bulan.
- Bahasa: Akurasi dalam menjawab pertanyaan, yang diukur dengan skor F1 pada Stanford Stanford Question Answering Dataset (SQUAD), meningkat dari 60 menjadi 95 dari tahun 2015 hingga 2019; pada pada varian SQUAD 2, kemajuannya lebih cepat, dari 62 menjadi 90 hanya dalam waktu satu tahun. Keduanya keduanya melampaui kinerja tingkat manusia.
- Tolok ukur manusia: Pada tahun 2019, sistem AI dilaporkan telah memenuhi atau melampaui kinerja tingkat manusia dalam catur, Go, poker, Pac-Man, Jeopardy!, deteksi objek ImageNet, pengenalan suara dalam domain terbatas, terjemahan bahasa Mandarin ke bahasa Inggris dalam domain terbatas domain, Quake III, Dota 2, StarCraft II, berbagai game Atari, pendeteksian kanker kulit
Kendaraan robotik: Sejarah kendaraan robotik (mobil yang dikendalikan oleh radio) tahun 1920-an, didemonstrasi mengemudi di jalan raya secara otonom tanpa pemandu khusus tahun 1980-an (Kanade dkk, Dickmanns dan Zapp). Pada tahun 2018, kendaraan uji Waymo melewati tengara dari 10 juta mil yang dikendarai di jalan umum tanpa kecelakaan serius, dengan pengemudi manusia mengambil alih kendali hanya sekali setiap 6.000 mil. Segera setelah itu, perusahaan mulai menawarkan layanan taksi robot komersial.
Drone sayap tetap telah menyediakan pengiriman darah lintas negara di Rwanda sejak tahun 2016. Quadcopter melakukan manuver aerobatik yang luar biasa, menjelajahi bangunan sambil membuat peta 3-D, dan merakit diri sendiri ke dalam formasi otonom.
Penggerak berkaki: BigDog, robot berkaki empat karya Raibert dkk. (2008), sangat mirip dengan hewan dan dapat pulih kembali saat didorong atau saat terpeleset di atas kubangan es.
Atlas, robot humanoid, berjalan di medan yang tidak rata, melompat ke atas kotak dan melakukan salto (Ackerman dan Guizzo, 2016).
Perencanaan dan penjadwalan otonom: 100 juta mil dari Bumi, program Remote Agent NASA menjadi program perencanaan otonom di dalam pesawat pertama yang mengendalikan penjadwalan operasi pesawat ruang angkasa (Jonsson et al., 2000) yang menghasilkan rencana dari tujuan tingkat tinggi yang ditentukan dari bumi dan memantau pelaksanaan rencana tersebut dengan mendeteksi, mendiagnosis, dan memulihkan diri dari masalah yang terjadi.
Saat ini, perangkat perencanaan EUROPA (Barreiro et al., 2012) digunakan untuk operasi harian penjelajah Mars NASA dan sistem SEXTANT (Winternitz, 2017) memungkinkan navigasi otonom di ruang angkasa yang dalam, di luar sistem GPS global.
Machine translation: Sistem penerjemahan mesin online kini memungkinkan pembacaan dokumen dalam lebih dari 100 bahasa, termasuk bahasa asli lebih dari 99% manusia, dan menerjemahkan ratusan miliar kata per hari untuk ratusan juta pengguna.
Speech recognition: Sekitar sepertiga interaksi komputer di seluruh dunia sekarang dilakukan dengan suara, bukan dengan papan ketik; Skype menyediakan terjemahan suara-ke-suara secara real-time dalam sepuluh bahasa. Alexa, Siri, Cortana, dan Google menawarkan asisten yang dapat menjawab pertanyaan dan melakukan tugas untuk pengguna; sebagai misalnya layanan Google Duplex menggunakan pengenalan suara dan sintesis suara untuk membuat reservasi restoran untuk pengguna, melakukan percakapan yang fasih atas nama mereka.
Rekomendasi: Perusahaan seperti Amazon, Facebook, Netflix, Spotify, YouTube, Walmart, dan lainnya menggunakan pembelajaran mesin untuk merekomendasikan apa yang mungkin Anda sukai berdasarkan pengalaman Anda di masa lalu dan pengalaman orang lain yang mirip dengan Anda. Penyaringan spam juga dapat dianggap sebagai bentuk rekomendasi (atau dis-rekomendasi); teknik AI saat ini menyaring lebih dari 99,9% spam, dan layanan email juga dapat merekomendasikan calon penerima, serta kemungkinan teks tanggapan.
Bermain game: Piet Hut, meramalkan bahwa dibutuhkan waktu >100 tahun sebelum komputer mengalahkan manusia dalam permainan Go. Namun 20 tahun kemudian, ALPHAGO berhasil melampaui semua pemain manusia (Silver dkk 2017).
Pemahaman gambar: Tidak puas dengan melebihi akurasi manusia pada tugas pengenalan objek yang menantang ImageNet yang menantang, para peneliti visi komputer telah mengambil masalah yang lebih sulit, yaitu pemberian keterangan gambar (Vinyals dkk, 2017).
Medicine: Algoritme AI kini menyamai atau melebihi dokter ahli dalam mendiagnosis banyak kondisi, terutama ketika diagnosis didasarkan pada gambar. Contohnya termasuk penyakit Alzheimer (Ding dkk 2018), penyakit mata (Gulshan dkk 2016), dan penyakit kulit (Liu dkk 2019).
Sebuah tinjauan sistematis dan sistematis dan meta-analisis (Liu dkk, 2019) menemukan bahwa kinerja program AI, rata-rata, setara dengan tenaga kesehatan profesional. Salah satu penekanan saat ini dalam AI medis adalah memfasilitasi kemitraan manusia-mesin.
Ilmu pengetahuan iklim: Sebuah tim ilmuwan memenangkan Gordon Bell Prize 2018 untuk model pembelajaran mendalam yang menemukan informasi terperinci tentang peristiwa cuaca ekstrem yang sebelumnya terkubur dalam data iklim. Menggunakan superkomputer dengan perangkat keras GPU khusus untuk melampaui tingkat exaop (10 pangkat 18 operasi per detik), program pembelajaran mesin pertama yang melakukannya (Kurth dkk., 2018) Rolnick dkk (2019) menyajikan katalog setebal 60 halaman tentang cara-cara pembelajaran mesin dapat digunakan untuk mengatasi perubahan iklim
Karena AI memainkan peran yang semakin penting dalam bidang ekonomi, sosial, ilmiah, medis, keuangan, dan militer, sebaiknya kita mempertimbangkan kerugian dan solusi-dalam bahasa modern, risiko dan manfaat-yang dapat ditimbulkannya.
Untuk memulai dengan manfaatnya: sederhananya, seluruh peradaban kita adalah produk dari kecerdasan. Jika kita memiliki akses ke kecerdasan mesin yang jauh lebih besar, batas atas ambisi kita meningkat secara substansial.
Potensi AI dan robotika untuk membebaskan manusia dari pekerjaan yang berulang-ulang dan secara dramatis meningkatkan produksi barang dan jasa dapat menjadi pertanda era perdamaian dan kelimpahan.
Kapasitas untuk mempercepat penelitian ilmiah dapat menghasilkan obat untuk penyakit dan solusi untuk perubahan iklim dan kekurangan sumber daya. Seperti yang dikatakan oleh Demis Hassabis, CEO Google DeepMind, telah menyarankan: "Pertama-tama selesaikan AI, lalu gunakan AI untuk menyelesaikan yang lainnya."
Beberapa Risiko dari penyalahgunaan AI, baik yang disengaja maupun tidak di antaranya sudah terlihat jelas, sementara yang lain tampaknya mungkin terjadi berdasarkan tren saat ini:
- Senjata otonom yang mematikan: Senjata ini didefinisikan oleh PBB sebagai senjata yang dapat menemukan, memilih, dan melenyapkan target manusia tanpa campur tangan manusia. Kekhawatiran utama utama dari senjata semacam itu adalah skalabilitasnya: tidak adanya persyaratan untuk pengawasan manusia berarti bahwa sebuah kelompok kecil dapat mengerahkan sejumlah besar senjata terhadap target manusia yang ditentukan oleh kriteria pengenalan yang layak.
- Pengambilan keputusan : Penyalahgunaan algoritme pembelajaran mesin yang ceroboh atau disengaja untuk tugas-tugas seperti mengevaluasi aplikasi pembebasan bersyarat dan pinjaman dapat menghasilkan keputusan yang yang bias berdasarkan ras, jenis kelamin, atau kategori yang dilindungi lainnya. Seringkali, data itu sendiri mencerminkan bias yang meresap dalam masyarakat.
- Pengawasan dan persuasi: Meskipun mahal, membosankan, dan terkadang secara hukum dipertanyakan bagi petugas keamanan untuk memantau saluran telepon, umpan kamera video, email, dan saluran perpesanan lainnya, AI (pengenalan suara, visi komputer, dan pemahaman bahasa) dapat digunakan dengan cara yang terukur untuk melakukan pengawasan massal individu dan mendeteksi aktivitas yang menarik. Dengan menyesuaikan arus informasi kepada individu melalui media sosial, berdasarkan teknik pembelajaran mesin, perilaku politik dapat dapat dimodifikasi dan dikontrol sampai batas tertentu-kekhawatiran yang mulai terlihat pada pemilu yang dimulai pada tahun 2016.
- Keamanan siber: Teknik AI berguna untuk mempertahankan diri dari serangan siber, misalnya dengan mendeteksi pola perilaku yang tidak biasa, tetapi juga akan berkontribusi pada potensi, kemampuan bertahan, dan kemampuan berkembang biak malware. Sebagai contoh, metode pembelajaran penguatan telah digunakan untuk menciptakan alat yang sangat efektif untuk otomatis, pemerasan yang dipersonalisasi dan serangan phishing.
- Dampak terhadap pekerjaan: Kekhawatiran bahwa mesin akan menghilangkan pekerjaan. Mesin melakukan beberapa tugas yang seharusnya dilakukan oleh manusia, namun mesin juga membuat manusia lebih produktif sehingga lebih mudah dipekerjakan, dan membuat perusahaan lebih menguntungkan sehingga mampu membayar upah yang lebih tinggi. Mesin dapat membuat beberapa aktivitas menjadi layak secara ekonomi yang sebelumnya tidak praktis. Penggunaan teknologi secara umum menghasilkan peningkatan kekayaan, tetapi cenderung berdampak pada pergeseran kekayaan dari tenaga kerja ke modal, yang semakin memperparah peningkatan ketimpangan.
- Aplikasi yang sangat penting bagi keselamatan: Kemajuan teknik AI, semakin banyak digunakan dalam aplikasi yang berisiko tinggi dan sangat penting bagi keselamatan seperti mengemudikan mobil dan mengelola persediaan air di kota. Kecelakaan fatal telah terjadi dan menyoroti sulitnya verifikasi formal dan analisis risiko statistik untuk sistem yang dikembangkan menggunakan teknik pembelajaran mesin. Bidang AI perlu mengembangkan standar teknis dan etika yang setidaknya sebanding dengan standar yang berlaku di bidang teknik dan perawatan kesehatan lainnya yang mempertaruhkan nyawa manusia.
- Joyce Meyer