Sejarah Artificial Intelligence dari jaman kegelapan sampai berbasis ilmu pengetahuan

Intelegensi buatan sebagai ilmu pengetahuan didirikan oleh tiga generasi peneliti. Beberapa peristiwa dan kontributor terpenting dari setiap generasi dijelaskan selanjutnya

‘Abad Kegelapan’, atau kelahiran kecerdasan buatan (1943-1956)

Karya pertama yang dikenal di bidang kecerdasan buatan (artificial intelligence) (AI) dipandu oleh Warren McCulloch dan Walter Pitts pada tahun 1943. McCulloch memiliki gelar dalam bidang filsafat dan kedokteran dari Universitas Columbia dan menjadi Direktur Laboratorium Riset Dasar di Departemen Psikiatri di Universitas Illinois. Penelitiannya tentang sistem saraf pusat menghasilkan kontribusi besar pertama pada AI: model neuron otak. McCulloch dan rekan penulisnya Walter Pitts, seorang matematikawan muda, mengusulkan sebuah model jaringan syaraf tiruan di mana masing-masing neuron didalilkan dalam keadaan biner, yaitu dalam kondisi on atau off (McCulloch dan Pitts, 1943). Mereka menunjukkan bahwa model jaringan syaraf tiruan mereka sebanding dengan mesin Turing, dan membuktikan bahwa fungsi komputasi dapat dihitung oleh beberapa jaringan neuron yang terhubung. McCulloch dan Pitts juga menunjukkan bahwa struktur jaringan sederhana bisa dipelajari. Model jaringan syaraf tiruan merangsang kerja teoritis dan eksperimental untuk memodelkan otak di laboratorium. Namun, eksperimen dengan jelas menunjukkan bahwa model biner neuron tidak benar. Sebenarnya, neuron memiliki karakteristik non-linier dan tidak dapat dianggap sebagai perangkat dua-negara sederhana. Meskipun demikian, McCulloch, ‘pendiri’ kedua AI setelah Alan Turing, telah menciptakan landasan komputasi neural dan jaringan syaraf tiruan (JST). Setelah mengalami penurunan pada tahun 1970an, bidang ANN dihidupkan kembali pada akhir 1980an.

Pendiri AI yang ketiga adalah John von Neumann, matematikawan Hungarianborn yang brilian. Pada tahun 1930, ia bergabung dengan Universitas Princeton, mengajar di bidang fisika matematika. Dia adalah seorang rekan dan teman Alan Turing. Selama Perang Dunia Kedua, von Neumann memainkan peran kunci dalam Proyek Manhattan yang membangun bom nuklir tersebut. Dia juga menjadi penasihat untuk proyek Electronic Numerical Integrator and Calculator (ENIAC) di University of Pennsylvania dan membantu merancang Electronic Discrete Variable Automatic Computer (EDVAC), sebuah mesin program yang tersimpan. Dia dipengaruhi oleh model jaringan syaraf McCulloch dan Pitts. Ketika Marvin Minsky dan Dean Edmonds, dua mahasiswa pascasarjana di departemen matematika Princeton, membangun komputer jaringan saraf pertama di tahun 1951, von Neumann mendorong dan mendukung mereka. Peneliti generasi pertama lainnya adalah Claude Shannon. Dia lulus dari Massachusetts Institute of Technology (MIT) dan bergabung dengan Bell Telephone Laboratories pada tahun 1941. Shannon berbagi gagasan Alan Turing tentang kemungkinan kecerdasan mesin. Pada tahun 1950, ia menerbitkan sebuah makalah tentang mesin permainan catur, yang menunjukkan bahwa permainan catur khas melibatkan sekitar 8.120 kemungkinan pergerakan (Shannon, 1950). Bahkan jika komputer tipe von Neumann yang baru bisa memeriksa satu gerakan per mikrodetik, dibutuhkan waktu 10106 tahun untuk melakukan gerakan pertamanya. Dengan demikian Shannon menunjukkan perlunya menggunakan heuristik dalam mencari solusinya. Universitas Princeton juga merupakan rumah bagi John McCarthy, pendiri AI lainnya. Dia meyakinkan Martin Minsky dan Claude Shannon untuk mengatur musim panas

Lokakarya di Dartmouth College, tempat McCarthy bekerja setelah lulus dari Princeton. Pada tahun 1956, mereka mengumpulkan peneliti yang tertarik untuk mempelajari kecerdasan mesin, jaring saraf buatan dan teori automata. Lokakarya ini disponsori oleh IBM. Meski hanya ada sepuluh peneliti, workshop ini melahirkan sebuah sains baru yang disebut kecerdasan buatan. Selama dua puluh tahun ke depan bidang AI akan didominasi oleh peserta lokakarya Dartmouth dan murid mereka.

Munculnya intelegensi buatan, atau era harapan besar (1956-akhir 1960-an)

Tahun-tahun awal AI ditandai dengan antusiasme yang luar biasa, ide bagus dan kesuksesan yang sangat terbatas. Beberapa tahun sebelumnya, komputer telah diperkenalkan untuk melakukan perhitungan matematis rutin, namun kini para peneliti AI menunjukkan bahwa komputer dapat melakukan lebih dari itu. Itu adalah era harapan besar. John McCarthy, salah satu penyelenggara lokakarya Dartmouth dan penemu istilah ‘intelejensi buatan’, pindah dari Dartmouth ke MIT. Dia mendefinisikan bahasa tingkat tinggi LISP – salah satu bahasa pemrograman tertua (FORTRAN baru berusia dua tahun), yang masih digunakan saat ini. Pada tahun 1958, McCarthy mempresentasikan sebuah makalah, ‘Programs with Common Sense’, di mana dia mengusulkan sebuah program yang disebut Advice Taker untuk mencari solusi atas masalah umum dunia (McCarthy, 1958). McCarthy menunjukkan bagaimana programnya bisa menghasilkan, misalnya, rencana untuk pergi ke bandara, berdasarkan beberapa aksioma sederhana. Yang terpenting, program ini dirancang untuk menerima aksioma baru, atau dengan kata lain pengetahuan baru, di bidang keahlian yang berbeda tanpa diprogram ulang. Dengan demikian, Advice Taker adalah sistem pengetahuan lengkap pertama yang menggabungkan prinsip-prinsip dasar representasi pengetahuan dan penalaran.

Panitia penyelenggara Dartmouth lainnya, Marvin Minsky, juga pindah ke MIT. Namun, tidak seperti McCarthy yang fokus pada logika formal, Minsky mengembangkan pandangan anti-logis tentang representasi pengetahuan dan penalaran. Teorinya tentang kerangka (Minsky, 1975) merupakan kontribusi besar bagi ilmu pengetahuan. Pekerjaan awal pada komputasi saraf dan jaringan syaraf tiruan dimulai oleh McCulloch dan Pitts dilanjutkan. Metode pembelajaran ditingkatkan dan Frank Rosenblatt membuktikan teorema konvergensi perceptron, menunjukkan bahwa algoritma pembelajarannya dapat menyesuaikan kekuatan koneksi sebuah perceptron (Rosenblatt, 1962). Salah satu proyek paling ambisius dari era harapan besar adalah General Problem Solver (GPS) (Newell dan Simon, 1961, 1972). Allen Newell dan Herbert Simon dari Universitas Carnegie Mellon mengembangkan sebuah program umum untuk mensimulasikan metode pemecahan masalah manusia. GPS mungkin merupakan usaha pertama untuk memisahkan teknik pemecahan masalah dari data. Itu berdasarkan teknik yang sekarang disebut sebagai analisis means-ends.

Newell dan Simon mendalilkan bahwa masalah yang harus dipecahkan bisa didefinisikan dalam konteks negara. Analisis mean-ujung digunakan untuk menentukan perbedaan antara keadaan saat ini dan keadaan yang diinginkan atau keadaan tujuan dari masalah, dan untuk memilih dan menerapkan operator untuk mencapai keadaan sasaran. Jika negara tujuan tidak dapat segera dicapai dari keadaan saat ini, sebuah negara baru yang lebih dekat ke tujuan akan dibentuk dan prosedur diulang sampai negara tujuan tercapai. Rangkaian operator menentukan rencana solusi. Namun, GPS gagal menyelesaikan masalah rumit. Program ini didasarkan pada logika formal dan oleh karena itu dapat menghasilkan sejumlah operator yang tidak pasti, yang secara inheren tidak efisien. Jumlah waktu dan memori komputer yang dibutuhkan GPS untuk memecahkan masalah dunia nyata menyebabkan proyek ditinggalkan. Singkatnya, kita dapat mengatakan bahwa pada tahun 1960an, peneliti AI mencoba mensimulasikan proses berpikir kompleks dengan menemukan metode umum untuk memecahkan masalah kelas yang luas. Mereka menggunakan mekanisme pencarian tujuan umum untuk menemukan solusi atas masalah tersebut. Pendekatan seperti itu, sekarang disebut sebagai metode yang lemah, menerapkan informasi lemah tentang masalah domain; Hal ini mengakibatkan lemahnya kinerja program yang dikembangkan. Namun, ini juga merupakan saat ketika lapangan AI menarik ilmuwan hebat yang mengenalkan gagasan baru yang mendasar di bidang representasi pengetahuan, algoritma pembelajaran, komputasi syaraf dan komputasi dengan kata-kata. Gagasan ini tidak bisa diimplementasikan karena keterbatasan kemampuan komputer, namun dua dekade kemudian mereka telah menghasilkan pengembangan aplikasi praktis kehidupan nyata.

Menarik untuk dicatat bahwa Lot fi Zadeh, seorang profesor dari University of California di Berkeley, menerbitkan makalah terkenalnya ‘Fuzzy sets’ juga di tahun 1960an (Zadeh, 1965). Makalah ini sekarang dianggap sebagai dasar teori himpunan fuzzy. Dua dekade kemudian, periset fuzzy telah membangun ratusan mesin cerdas dan sistem cerdas. Pada tahun 1970, euforia tentang AI telah hilang, dan sebagian besar dana pemerintah untuk proyek AI dibatalkan. AI masih merupakan bidang yang relatif baru, bersifat akademis, dengan sedikit aplikasi praktis selain bermain game (Samuel, 1959, 1967; Greenblatt et al., 1967). Jadi, bagi orang luar, prestasi itu akan dilihat sebagai mainan, karena tidak ada sistem AI pada saat itu yang bisa mengatasi masalah dunia nyata.

Janji-janji yang tidak terpenuhi, atau dampak dari kenyataan (akhir 1960-an-awal 1970an)

Dari pertengahan 1950-an, peneliti AI membuat janji untuk membangun mesin cerdas serbaguna berdasarkan basis pengetahuan berskala manusia pada tahun 1980an, dan melampaui kecerdasan manusia pada tahun 2000. Pada tahun 1970, mereka menyadari bahwa klaim tersebut adalah terlalu optimis Meskipun beberapa program AI dapat menunjukkan beberapa tingkat kecerdasan mesin dalam satu atau dua masalah mainan, hampir tidak ada proyek AI yang dapat menangani lebih banyak pilihan tugas atau masalah dunia nyata yang sulit.

Kesulitan utama AI pada akhir 1960-an adalah:

  • Karena peneliti AI sedang mengembangkan metode umum untuk kelas masalah yang luas, program awal hanya berisi sedikit atau bahkan tidak memiliki pengetahuan tentang masalah domain. Untuk memecahkan masalah, program menerapkan strategi pencarian dengan mencoba berbagai kombinasi langkah kecil, sampai yang benar ditemukan. Metode ini bekerja untuk masalah ‘mainan’, jadi masuk akal jika, jika program dapat ‘ditingkatkan’ untuk memecahkan masalah besar, akhirnya mereka akan berhasil. Namun, pendekatan ini salah. Mudah, atau dapat ditundukkan, masalah dapat dipecahkan dalam waktu polinomial, yaitu untuk masalah ukuran n, waktu atau jumlah langkah yang diperlukan untuk menemukan solusinya adalah fungsi polinomial n. Di sisi lain, masalah keras atau sulit diatasi memerlukan waktu yang merupakan fungsi eksponensial dari ukuran masalah. Sementara algoritma waktu polinomial dianggap efisien, algoritma eksponensial-waktu tidak efisien, karena waktu pelaksanaannya meningkat dengan cepat dengan ukuran masalah. Teori NP-kelengkapan (Cook, 1971; Karp, 1972), yang dikembangkan pada awal tahun 1970an, menunjukkan adanya kelas besar masalah polinomial nondeterministik (masalah NP) yang bersifat NP-complete. Masalah disebut NP jika solusinya (jika ada) dapat ditebak dan diverifikasi pada waktu polinomial; non-deterministik berarti bahwa tidak ada algoritma tertentu yang diikuti untuk membuat tebakan. Masalah yang paling sulit di kelas ini adalah NP-complete. Bahkan dengan komputer yang lebih cepat dan kenangan yang lebih besar, masalah ini sulit dipecahkan.
  • Banyak masalah yang coba diusahakan AI terlalu luas dan terlalu sulit. Tugas khas untuk AI awal adalah terjemahan mesin. Sebagai contoh, Dewan Riset Nasional, AS, mendanai terjemahan makalah ilmiah Rusia setelah peluncuran satelit buatan pertama (Sputnik) pada tahun 1957. Pada awalnya, tim proyek mencoba mengganti kata-kata Rusia dengan bahasa Inggris, menggunakan kamus elektronik. Namun, segera ditemukan bahwa terjemahan memerlukan pemahaman umum tentang subjek untuk memilih kata-kata yang tepat. Tugas ini terlalu sulit. Pada tahun 1966, semua proyek penerjemahan yang didanai oleh pemerintah AS dibatalkan.

Pada tahun 1971, pemerintah Inggris juga menangguhkan dukungan untuk penelitian AI. Sir James Lighthill telah ditugaskan oleh Science Research Council of Great Britain untuk meninjau keadaan terkini AI (Lighthill, 1973). Dia tidak menemukan hasil besar atau bahkan signifikan dari penelitian AI, dan karena itu tidak perlu memiliki sains terpisah yang disebut ‘intelegensi buatan’.

 

Teknologi sistem pakar, atau kunci sukses (awal 1970-an-pertengahan 1980an)

Mungkin perkembangan terpenting di tahun 1970-an adalah kesadaran bahwa masalah domain untuk mesin cerdas harus dibatasi secara memadai. Sebelumnya, peneliti AI percaya bahwa algoritma pencarian dan penalaran cerdas dapat ditemukan untuk meniru metode pemecahan masalah umum, mirip manusia. Mekanisme pencarian tujuan umum dapat diandalkan Langkah dasar penalaran untuk menemukan solusi lengkap dan bisa menggunakan pengetahuan lemah tentang domain. Namun, ketika metode yang lemah gagal, para peneliti akhirnya menyadari bahwa satu-satunya cara untuk memberikan hasil praktis adalah dengan memecahkan kasus-kasus khas di bidang keahlian yang sempit dengan membuat langkah-langkah penalaran yang besar. Program DENDRAL adalah contoh khas teknologi baru (Buchanan et al., 1969). DENDRAL dikembangkan di Stanford University untuk menganalisis bahan kimia. Proyek ini didukung oleh NASA, karena pesawat ruang angkasa tak berawak diluncurkan ke Mars dan sebuah program diperlukan untuk menentukan struktur molekuler tanah Mars, berdasarkan data spektral massa yang diberikan oleh spektrometer massa. Edward Feigenbaum (mantan siswa Herbert Simon), Bruce Buchanan (ilmuwan komputer) dan Joshua Lederberg (pemenang hadiah Nobel dalam genetika) membentuk sebuah tim untuk memecahkan masalah yang menantang ini. Metode tradisional untuk memecahkan masalah tersebut bergantung pada teknik uji dan uji: semua struktur molekuler yang mungkin sesuai dengan spektogram massa dihasilkan terlebih dahulu, dan kemudian spektrum massa ditentukan atau diprediksi untuk setiap struktur dan diuji terhadap spektrum yang sebenarnya. Namun, metode ini gagal karena jutaan struktur yang mungkin dapat dihasilkan – masalahnya cepat menjadi sulit, bahkan untuk molekul berukuran layak.

Untuk menambah kesulitan tantangan, tidak ada algoritma ilmiah untuk memetakan spektrum massa ke dalam struktur molekulernya. Namun, ahli kimia analitik, seperti Lederberg, bisa memecahkan masalah ini dengan menggunakan keahlian, pengalaman dan keahlian mereka. Mereka dapat dengan sangat mengurangi jumlah struktur yang mungkin dengan mencari pola puncak yang terkenal dalam spektrum, dan dengan demikian hanya memberikan beberapa solusi yang layak untuk pemeriksaan lebih lanjut. Oleh karena itu, tugas Feigenbaum menjadi menggabungkan keahlian Lederberg ke dalam program komputer untuk membuatnya tampil di tingkat ahli manusia. Program semacam itu kemudian disebut sistem pakar. Untuk memahami dan mengadopsi pengetahuan Lederberg dan beroperasi dengan terminologinya, Feigenbaum harus mempelajari gagasan dasar dalam analisis kimia dan spektral. Namun, menjadi jelas bahwa Feigenbaum tidak hanya menggunakan peraturan kimia tapi juga heuristik, atau aturan praktis, berdasarkan pengalamannya, dan bahkan dugaan. Segera Feigenbaum mengidentifikasi salah satu kesulitan utama dalam proyek ini, yang dia sebut ‘bottleneck pengetahuan’ – bagaimana mengekstrak pengetahuan dari pakar manusia untuk diterapkan ke komputer. Untuk mengartikulasikan pengetahuannya, Lederberg bahkan perlu mempelajari dasar-dasar dalam komputasi. Bekerja sebagai tim, Feigenbaum, Buchanan dan Lederberg mengembangkan DENDRAL, sistem pengetahuan berbasis pengetahuan yang pertama. Kunci keberhasilan mereka adalah memetakan semua pengetahuan teoritis yang relevan dari bentuknya yang umum ke peraturan yang sangat spesifik (‘ cookbook recipes‘) (Feigenbaum et al., 1971).

Signifikan DENDRAL dapat diringkas sebagai berikut:

  • DENDRAL menandai ‘pergeseran paradigma’ utama dalam AI: pergeseran dari metode umum, pengetahuan-jarang, metode yang lemah untuk teknik spesifik pengetahuan domain.
  • Tujuan dari proyek ini adalah untuk mengembangkan sebuah program komputer untuk mencapai tingkat kinerja seorang ahli kimia manusia yang berpengalaman. Dengan menggunakan heuristik dalam bentuk peraturan khusus berkualitas tinggi.
  • Aturan praktis yang didapat dari ahli manusia, tim DENDRAL membuktikan bahwa komputer dapat menyamai seorang ahli di area masalah yang sempit dan terdefinisi.
  • Proyek DENDRAL berasal dari ide dasar metodologi baru sistem pakar – teknik pengetahuan, yang mencakup teknik menangkap, menganalisis dan mengekspresikan dalam peraturan ‘pengetahuan’ seorang ahli.

DENDRAL terbukti menjadi alat analisis yang berguna bagi ahli kimia dan dipasarkan secara komersial di Amerika Serikat. Proyek besar berikutnya yang dilakukan oleh Feigenbaum dan yang lainnya di Stanford University berada di wilayah diagnosis medis. Proyek yang disebut MYCIN, dimulai pada tahun 1972. Kemudian menjadi Ph.D. tesis Edward Shortliffe (Shortliffe, 1976). MYCIN adalah sistem pakar berbasis aturan untuk diagnosis penyakit darah menular. Ini juga memberi saran dokter terapeutik dengan cara yang mudah dan mudah dilakukan.

MYCIN memiliki sejumlah karakteristik yang umum untuk sistem pakar awal, termasuk:

  • MYCIN bisa tampil setara satu level dengan ahli manusia di lapangan dan jauh lebih baik dari pada dokter junior.
  • Pengetahuan MYCIN terdiri dari sekitar 450 peraturan independen bentuk IF-THEN yang berasal dari pengetahuan manusia dalam domain sempit melalui wawancara ahli yang ekstensif.
  • Pengetahuan yang tergabung dalam bentuk peraturan jelas terpisah dari mekanisme penalaran. Pengembang sistem dapat dengan mudah memanipulasi pengetahuan dalam sistem dengan memasukkan atau menghapus beberapa peraturan. Sebagai contoh, versi MYCIN yang berbasis domain yang disebut EMYCIN (Empty MYCIN) kemudian diproduksi di Universitas Stanford (van Melle, 1979; van Melle et al, 1981). Ia memiliki semua fitur sistem MYCIN kecuali pengetahuan tentang penyakit darah menular. EMYCIN memfasilitasi pengembangan berbagai aplikasi diagnostik. Pengembang sistem hanya perlu menambahkan pengetahuan baru dalam bentuk aturan untuk mendapatkan aplikasi baru.

MYCIN juga memperkenalkan beberapa fitur baru. Aturan yang tergabung dalam MYCIN mencerminkan ketidakpastian yang terkait dengan pengetahuan, dalam hal ini dengan diagnosis medis. Ini menguji kondisi aturan (bagian JIKA) terhadap data atau data yang diminta dari dokter. Bila sesuai, MYCIN menyimpulkan kebenaran suatu kondisi melalui kalkulus ketidakpastian yang disebut faktor kepastian. Penalaran dalam menghadapi ketidakpastian adalah bagian terpenting dari sistem. Sistem probabilistik lain yang menghasilkan publisitas sangat besar adalah PROSPEKTOR, sebuah sistem pakar untuk eksplorasi mineral yang dikembangkan oleh Stanford Research Institute (Duda et al., 1979). Proyek ini berjalan dari tahun 1974 sampai 1983. Sembilan ahli menyumbangkan pengetahuan dan keahlian mereka. Untuk mewakili pengetahuan mereka, PROSPEKTOR menggunakan gabungan struktur yang menggabungkan aturan dan jaringan semantik. PROSPEKTOR memiliki lebih dari seribu aturan untuk mewakili pengetahuan domain yang luas. Ini juga memiliki paket dukungan yang canggih termasuk sistem akuisisi pengetahuan. PROSPEKTUR beroperasi sebagai berikut. Pengguna, ahli geologi eksplorasi, diminta memasukkan karakteristik deposit yang dicurigai: pengaturan geologi, struktur, jenis batuan dan mineral. Kemudian program membandingkan karakteristik ini dengan model endapan bijih dan, jika perlu, meminta pengguna untuk mendapatkan informasi tambahan. Akhirnya, PROSPEKTOR membuat penilaian tentang deposit mineral yang dicurigai dan menyajikan kesimpulannya. Ini juga bisa menjelaskan langkah-langkah yang digunakannya untuk mencapai kesimpulan. Dalam eksplorasi geologi, keputusan penting biasanya dibuat dalam menghadapi ketidakpastian, dengan pengetahuan yang tidak lengkap atau kabur. Untuk mengatasi pengetahuan tersebut, PROSPEKTOR memasukkan peraturan bukti Bayes untuk menyebarkan ketidakpastian melalui sistem. PROSPEKTOR dilakukan pada tingkat ahli geologi ahli dan membuktikan dirinya dalam praktek. Pada tahun 1980, ia mengidentifikasi deposit molibdenum di dekat Gunung Tolman di Washington State. Pengeboran selanjutnya oleh perusahaan pertambangan memastikan bahwa deposit tersebut bernilai lebih dari $ 100 juta. Anda tidak bisa mengharapkan pembenaran yang lebih baik untuk menggunakan sistem pakar.

Sistem pakar yang disebutkan di atas sekarang telah menjadi klasik. Semakin banyak aplikasi sukses sistem pakar pada akhir tahun 1970an, teknologi AI dapat bergerak dengan sukses dari laboratorium penelitian ke lingkungan komersial. Selama periode ini, bagaimanapun, sebagian besar sistem pakar dikembangkan dengan bahasa AI khusus, seperti LISP, PROLOG dan OPS, berdasarkan pada workstation yang kuat. Kebutuhan untuk memiliki perangkat keras dan bahasa pemrograman yang agak mahal berarti bahwa tantangan pengembangan sistem pakar tertinggal di beberapa kelompok penelitian di Stanford University, MIT, Stanford Research Institute dan Universitas Carnegie-Mellon. Baru pada tahun 1980an, dengan kedatangan komputer pribadi (PC) dan alat pengembangan sistem pakar yang mudah digunakan – kerang – dapatkah periset dan insinyur biasa di semua disiplin ilmu mengambil kesempatan untuk mengembangkan sistem pakar. Sebuah survei tahun 1986 melaporkan sejumlah aplikasi sistem pakar yang sukses di berbagai bidang: kimia, elektronika, teknik, geologi, manajemen, kedokteran, pengendalian proses dan ilmu pengetahuan militer (Waterman, 1986). Meskipun Waterman menemukan hampir 200 sistem pakar, sebagian besar aplikasi berada di bidang diagnosis medis. Tujuh tahun kemudian, sebuah survei serupa melaporkan lebih dari 2.500 sistem pakar yang dikembangkan (Durkin, 1994). Kawasan berkembang baru adalah bisnis dan manufaktur, yang menyumbang sekitar 60 persen dari aplikasi. Teknologi sistem pakar sudah matang dengan matang. Apakah sistem pakar benar-benar kunci sukses di bidang apapun? Terlepas dari sejumlah besar keberhasilan pengembangan dan implementasi sistem pakar di berbagai bidang pengetahuan manusia, akan menjadi kesalahan untuk melebih-lebihkan kemampuan teknologi ini. Perbedaannya agak rumit dan terletak pada lingkungan teknis dan sosiologis. Mereka meliputi:

  • Sistem pakar dibatasi pada wilayah keahlian yang sangat sempit. Sebagai contoh, MYCIN, yang dikembangkan untuk diagnosis penyakit darah menular, tidak memiliki pengetahuan tentang fisiologi manusia. Jika pasien memiliki lebih dari satu penyakit, kita tidak bisa mengandalkan MYCIN. Padahal, terapi yang diresepkan untuk penyakit darah bahkan bisa berbahaya karena penyakit lainnya.
  • Karena domain yang sempit, sistem pakar tidak sekuat dan fleksibel seperti yang diinginkan pengguna. Selanjutnya, sistem pakar dapat sulit mengenali batas-batas domain. Bila diberi tugas yang berbeda dari masalah tipikal, sistem pakar mungkin berusaha untuk menyelesaikannya dan gagal dengan cara yang agak tidak terduga.
  • Sistem pakar memiliki kemampuan penjelasan yang terbatas. Mereka dapat menunjukkan urutan aturan yang mereka terapkan untuk mencapai solusi, namun tidak dapat menghubungkan akumulasi pengetahuan heuristik dengan pemahaman yang lebih dalam tentang masalah domain.
  • Sistem pakar juga sulit untuk diverifikasi dan dipastikan. Belum ada teknik umum yang dikembangkan untuk menganalisis kelengkapan dan konsistensi mereka. Aturan heuristik mewakili pengetahuan dalam bentuk abstrak dan bahkan tidak memiliki pemahaman dasar tentang wilayah domain. Ini membuat tugas untuk mengidentifikasi pengetahuan yang salah, tidak lengkap atau tidak konsisten sangat sulit.
  • Sistem pakar, terutama generasi pertama, memiliki sedikit atau tidak memiliki kemampuan untuk belajar dari pengalaman mereka. Sistem pakar dibangun secara individual dan tidak bisa dikembangkan dengan cepat. Mungkin dibutuhkan waktu dari lima sampai sepuluh tahun untuk membangun sistem pakar untuk memecahkan masalah yang cukup sulit (Waterman, 1986). Sistem kompleks seperti DENDRAL, MYCIN atau PROSPECTOR dapat mengambil alih 30 personyears untuk dibangun. Upaya besar ini, bagaimanapun, akan sulit untuk membenarkan jika perbaikan kinerja sistem pakar bergantung pada perhatian lebih lanjut dari para pengembangnya.

Terlepas dari semua kesulitan ini, sistem pakar telah membuat terobosan dan membuktikan nilai mereka dalam sejumlah aplikasi penting.

Cara membuat mesin belajar(machine learning), atau kelahiran kembali jaringan syaraf tiruan (pertengahan 1980-an)

Pada pertengahan tahun 1980an, para periset, insinyur dan ahli menemukan bahwa membangun sistem pakar memerlukan lebih dari sekedar membeli sistem penalaran atau shell sistem pakar dan menerapkan cukup banyak aturan di dalamnya. Kekecewaan tentang penerapan teknologi sistem pakar bahkan menyebabkan orang memprediksi musim dingin ‘AI’ dengan dana perampingan proyek AI yang diperas berat. Periset AI memutuskan untuk memiliki tampilan baru pada jaringan syaraf tiruan. Menjelang akhir 1960-an, sebagian besar gagasan dan konsep dasar yang diperlukan untuk komputasi syaraf telah dirumuskan (Cowan, 1990). Namun, baru pertengahan 1980-an solusi itu muncul. Alasan utama penundaan adalah teknologi: tidak ada PC atau workstation yang kuat untuk dipodelkan dan bereksperimen dengan jaringan syaraf tiruan. Alasan lainnya adalah psikologis dan finansial. Sebagai contoh, pada tahun 1969, Minsky dan Papert telah secara matematis mendemonstrasikan keterbatasan komputasi fundamental dari perceptron lapis satu (Minsky dan Papert, 1969). Mereka juga mengatakan tidak ada alasan untuk mengharapkan bahwa perceptrons multilayer yang lebih kompleks akan banyak mewakili. Hal ini tentunya tidak akan mendorong seseorang untuk mengerjakan perceptron, dan akibatnya, sebagian besar peneliti AI meninggalkan bidang jaringan syaraf tiruan pada tahun 1970an. Pada tahun 1980an, karena kebutuhan akan pemrosesan informasi mirip otak, serta kemajuan teknologi komputer dan kemajuan ilmu saraf, bidang jaringan saraf mengalami kebangkitan yang dramatis. Kontribusi besar terhadap teori dan desain dibuat di beberapa bidang. Grossberg membentuk sebuah prinsip baru dari self-organization (teori resonansi adaptif), yang menjadi dasar bagi kelas baru jaringan syaraf tiruan (Grossberg, 1980). Hop mengenalkan jaringan syaraf tiruan dengan umpan balik – Jaringan lapangan Hop, yang banyak menarik perhatian pada tahun 1980an (Hopfield, 1982). Kohonen menerbitkan sebuah makalah tentang peta mandiri (Kohonen, 1982). Barto, Sutton dan Anderson mempublikasikan karyanya mengenai pembelajaran penguatan dan penerapannya dalam kontrol (Barto et al., 1983). Tapi terobosan nyata terjadi pada tahun 1986 ketika algoritma pembelajaran propagasi balik, yang pertama kali diperkenalkan oleh Bryson dan Ho pada tahun 1969 (Bryson dan Ho, 1969), diciptakan kembali oleh Rumelhart dan McClelland dalam Parallel Distributed Processing: Exploration in the Microstructures of Cognition (Rumelhart dan McClelland, 1986). Pada saat bersamaan, pembelajaran propagasi balik juga ditemukan oleh Parker (Parker, 1987) dan LeCun (LeCun, 1988), dan sejak saat itu telah menjadi teknik yang paling populer untuk melatih perceptron multilayer. Pada tahun 1988, Broomhead dan Lowe menemukan sebuah prosedur untuk merancang jaringan feedforward berlapis menggunakan fungsi dasar radial, sebuah alternatif untuk perceptron multilayer (Broomhead dan Lowe, 1988).

Jaringan syaraf tiruan telah datang jauh dari model awal McCulloch dan Pitts ke subjek interdisipliner dengan akar ilmu saraf, psikologi, matematika dan teknik, dan akan terus berkembang baik dalam teori maupun aplikasi praktis. Namun, buku Hopfield (Hopfield, 1982) dan Rumelhart dan McClelland (Rumelhart dan McClelland, 1986) adalah karya paling penting dan berpengaruh yang bertanggung jawab atas kelahiran kembali jaringan syaraf tiruan pada tahun 1980an.

Perhitungan evolusioner, atau belajar dengan melakukan (awal 1970-an dan seterusnya)

Kecerdasan alamiah adalah produk evolusi. Oleh karena itu, dengan mensimulasikan evolusi biologis, kita mungkin berharap dapat menemukan bagaimana sistem kehidupan didorong menuju kecerdasan tingkat tinggi. Alam belajar dengan melakukan; Sistem biologis tidak diberi tahu bagaimana menyesuaikan diri dengan lingkungan yang spesifik – mereka hanya bersaing untuk bertahan hidup. Spesies yang paling baik memiliki kesempatan lebih besar untuk bereproduksi, dan dengan demikian meneruskan materi genetik mereka ke generasi berikutnya.

Pendekatan evolusioner terhadap kecerdasan buatan didasarkan pada model komputasi seleksi alam dan genetika. Perhitungan evolusioner bekerja dengan mensimulasikan populasi individu, mengevaluasi kinerjanya, menghasilkan populasi baru, dan mengulangi proses ini beberapa kali. Perhitungan evolusioner menggabungkan tiga teknik utama: algoritma genetika, strategi evolusioner, dan pemrograman genetika. Konsep algoritma genetika diperkenalkan oleh John Holland pada awal 1970an (Belanda, 1975). Dia mengembangkan sebuah algoritma untuk memanipulasi ‘kromosom’ buatan (string digit biner), menggunakan operasi genetik seperti seleksi, crossover dan mutasi. Algoritma genetika didasarkan pada dasar teoritis yang solid dari Schema Theorem (Holland, 1975; Goldberg, 1989). Pada awal 1960-an, terlepas dari algoritma genetika Belanda, Ingo Rechenberg dan Hans-Paul Schwefel, mahasiswa Teknik Universitas Berlin, mengusulkan metode pengoptimalan baru yang disebut strategi evolusioner (Rechenberg, 1965). Strategi evolusioner dirancang secara khusus untuk memecahkan masalah optimasi parameter dalam rekayasa. Rechenberg dan Schwefel menyarankan untuk menggunakan perubahan parameter secara acak, seperti yang terjadi pada mutasi alami. Sebenarnya, pendekatan strategi evolusioner dapat dianggap sebagai alternatif intuisi insinyur. Strategi evolusioner menggunakan prosedur pengoptimalan numerik, serupa dengan pencarian Monte Carlo yang terfokus.

Kedua algoritma genetika dan strategi evolusioner dapat memecahkan berbagai masalah. Mereka menyediakan solusi yang andal dan andal untuk masalah pencarian dan optimasi nonlinier yang sangat kompleks yang sebelumnya tidak dapat dipecahkan sama sekali (Holland, 1995; Schwefel, 1995). Pemrograman genetik merupakan penerapan model genetik pembelajaran pemrograman. Tujuannya adalah untuk berevolusi bukan representasi kode dari beberapa masalah, melainkan kode komputer yang memecahkan masalah. Artinya, pemrograman genetika menghasilkan program komputer sebagai solusinya. Minat dalam pemrograman genetika sangat dirangsang oleh John Koza di tahun 1990an (Koza, 1992, 1994). Dia menggunakan operasi genetika untuk memanipulasi kode simbolis yang mewakili program LISP. Pemrograman genetik menawarkan solusi untuk tantangan utama komputer – membuat komputer menyelesaikan masalah tanpa diprogram secara eksplisit. Algoritma genetika, strategi evolusi dan pemrograman genetika mewakili area AI yang berkembang pesat, dan memiliki potensi besar.

Era baru teknik pengetahuan, atau komputasi dengan kata-kata (akhir 1980-an dan seterusnya)

Teknologi jaringan syaraf tiruan menawarkan interaksi yang lebih alami dengan dunia nyata daripada sistem berdasarkan penalaran simbolis. Jaringan saraf dapat belajar, menyesuaikan diri dengan perubahan dalam lingkungan masalah, menetapkan pola dalam situasi di mana peraturan tidak diketahui, dan menangani informasi yang kabur atau tidak lengkap. Namun, mereka kekurangan fasilitas penjelasan dan biasanya bertindak sebagai kotak hitam. Proses pelatihan jaringan syaraf tiruan dengan teknologi terkini lambat, dan pelatihan ulang yang sering dapat menyebabkan kesulitan yang serius.

Meskipun dalam beberapa kasus khusus, terutama dalam situasi yang kurang pengetahuan, JST dapat memecahkan masalah dengan lebih baik daripada sistem pakar, kedua teknologi tersebut tidak dalam persaingan sekarang. Mereka lebih baik saling melengkapi. Sistem pakar klasik sangat baik untuk aplikasi sistem tertutup dengan input dan output logis yang tepat. Mereka menggunakan pengetahuan ahli dalam bentuk aturan dan, jika diperlukan, dapat berinteraksi dengan pengguna untuk menetapkan fakta tertentu. Kelemahan utama adalah bahwa ahli manusia tidak dapat selalu mengungkapkan pengetahuan mereka dalam hal peraturan atau menjelaskan garis penalaran mereka. Hal ini dapat mencegah sistem pakar mengumpulkan pengetahuan yang diperlukan, dan akibatnya menyebabkan kegagalannya. Untuk mengatasi keterbatasan ini, komputasi syaraf dapat digunakan untuk mengekstrak pengetahuan tersembunyi dalam kumpulan data yang besar untuk mendapatkan peraturan bagi sistem pakar (Medsker dan Leibowitz, 1994; Zahedi, 1993). JST juga dapat digunakan untuk memperbaiki peraturan dalam sistem pakar berbasis aturan tradisional (Omlin and Giles, 1996). Dengan kata lain, jika pengetahuan yang diperoleh tidak lengkap, jaringan syaraf tiruan dapat memperbaiki pengetahuan, dan di mana pengetahuan tersebut tidak sesuai dengan beberapa data tertentu, jaringan syaraf tiruan dapat merevisi peraturan.

Teknologi lain yang sangat penting yang berhubungan dengan pengetahuan dan data samar, tidak tepat dan tidak pasti adalah logika fuzzy. Sebagian besar metode penanganan ketidaktepatan dalam sistem pakar klasik didasarkan pada konsep probabilitas. MYCIN, misalnya, memperkenalkan faktor-faktor kepastian, sementara PROSPEKTOR memasukkan peraturan Bayes untuk menyebarkan ketidakpastian. Namun, para ahli biasanya tidak berpikir dalam nilai probabilitas, namun dalam istilah seperti sering, biasanya kadang-kadang kadang-kadang dan jarang. Logika fuzzy berkaitan dengan penggunaan nilai fuzzy yang menangkap makna kata, penalaran manusia dan pengambilan keputusan. Sebagai metode untuk mengkodekan dan menerapkan pengetahuan manusia dalam bentuk yang secara akurat mencerminkan pemahaman ahli tentang masalah yang sulit dan kompleks, logika fuzzy menyediakan cara untuk menerobos kemacetan komputasi dari sistem pakar tradisional. Inti logika fuzzy terletak pada konsep variabel linguistik. Nilai dari variabel linguistik adalah kata-kata dan bukan angka. Serupa dengan sistem pakar, sistem fuzzy menggunakan peraturan IF-THEN untuk menggabungkan pengetahuan manusia, namun peraturan ini tidak jelas, seperti:

IF speed is high THEN stopping_distance is long

IF speed is low THEN stopping_distance is short.

 

Teori fuzzy logic atau fuzzy set diperkenalkan oleh Profesor Lot fi Zadeh, ketua departemen teknik elektro Berkeley, pada tahun 1965 (Zadeh, 1965). Ini menyediakan sarana komputasi dengan kata-kata. Namun, penerimaan teori himpunan fuzzy oleh masyarakat teknis lamban dan sulit. Sebagian dari masalahnya adalah nama provokatif – ‘kabur’ – yang sepertinya terlalu ringan untuk dianggap serius. Akhirnya, teori fuzzy, yang diabaikan di Barat, dianggap serius di Timur – oleh orang Jepang. Ini telah digunakan dengan sukses sejak tahun 1987 di mesin pencuci piring, mesin cuci, AC, pesawat televisi, mesin fotokopi, dan bahkan mobil Jepang yang dirancang.

Pengenalan produk fuzzy memunculkan minat yang luar biasa pada teknologi ‘baru’ yang tampaknya baru diusulkan lebih dari 30 tahun yang lalu. Ratusan buku dan ribuan makalah teknis telah ditulis mengenai topik ini. Beberapa yang klasik adalah: Fuzzy Sets, Neural Networks and Soft Computing (Yager and Zadeh, eds, 1994); The Fuzzy Systems Handbook (Cox, 1999); Fuzzy Engineering (Kosko, 1997); Expert Systems and Fuzzy Systems (Negoita, 1985); dan juga buku best seller, Fuzzy Thinking (Kosko, 1993). yang mempopulerkan bidang logika fuzzy. Sebagian besar aplikasi logika fuzzy berada di bidang teknik kontrol. Namun, sistem kontrol fuzzy hanya menggunakan sebagian kecil kekuatan logika logika fuzzy. Keuntungan berasal dari penerapan model logika fuzzy dalam sistem pendukung berbasis pengetahuan dan keputusan dapat diringkas sebagai berikut (Cox, 1999; Turban dan Aronson, 2000):

  • Peningkatan daya komputasi: Sistem berbasis aturan fuzzy berkinerja lebih cepat daripada sistem pakar konvensional dan memerlukan lebih sedikit aturan. Sistem pakar fuzzy menggabungkan peraturan, membuat mereka lebih kuat. Lot fi Zadeh percaya bahwa dalam beberapa tahun kebanyakan sistem pakar akan menggunakan logika fuzzy untuk memecahkan masalah yang sangat nonlinear dan komputasi sulit.
  • Pemodelan kognitif yang ditingkatkan: Sistem fuzzy memungkinkan pengkodean pengetahuan dalam bentuk yang merefleksikan cara para ahli memikirkan masalah yang kompleks. Mereka biasanya berpikir dalam istilah yang tidak tepat seperti tinggi dan rendah, cepat dan lamban, berat dan ringan, dan mereka juga menggunakan istilah seperti itu sangat sering dan hampir tidak pernah, biasanya dan hampir tidak pernah, sering dan sesekali. Untuk membangun peraturan konvensional, kita perlu mendefinisikan batas-batas garing untuk persyaratan ini, sehingga menghancurkan keahlian menjadi fragmen. Namun, fragmentasi ini berakibat pada buruknya kinerja sistem pakar konvensional saat menghadapi masalah yang sangat kompleks. Sebaliknya, model sistem pakar fuzzy tidak tepat, menangkap keahlian jauh lebih dekat dengan cara ia terwakili dalam pikiran ahli, dan dengan demikian memperbaiki pemodelan kognitif masalah.
  • Kemampuan untuk mewakili beberapa ahli: Sistem pakar konvensional dibangun untuk domain yang sangat sempit dengan keahlian yang didefinisikan dengan jelas. Itu membuat kinerja sistem sepenuhnya bergantung pada pilihan ahli yang tepat. Meskipun strategi yang sama adalah menemukan hanya satu ahli, ketika sebuah sistem pakar yang lebih kompleks sedang dibangun atau ketika keahlian tidak didefinisikan dengan baik, beberapa ahli mungkin dibutuhkan. Beberapa ahli dapat memperluas domain, mensintesis keahlian dan menghilangkan kebutuhan akan pakar kelas dunia, yang kemungkinan sangat mahal dan sulit diakses. Namun, beberapa ahli jarang mencapai kesepakatan yang dekat; Sering ada perbedaan pendapat dan bahkan konflik. Hal ini terutama terjadi di bidang-bidang seperti bisnis dan manajemen dimana tidak ada solusi sederhana dan pandangan yang bertentangan harus diperhitungkan. Sistem pakar fuzzy dapat membantu merepresentasikan keahlian beberapa ahli saat mereka menentang pandangan.

 

Meskipun sistem fuzzy memungkinkan ekspresi pengetahuan ahli dengan cara yang lebih alami, namun tetap bergantung pada peraturan yang diambil dari para ahli, dan dengan demikian mungkin cerdas atau bodoh. Beberapa ahli dapat memberikan aturan fuzzy yang sangat pandai – namun beberapa orang hanya menebak dan bahkan mungkin salah melakukannya. Oleh karena itu, semua peraturan harus diuji dan disetel, yang bisa menjadi proses yang berkepanjangan dan membosankan. Sebagai contoh, dibutuhkan beberapa insinyur Hitachi beberapa tahun untuk menguji dan menyempurnakan hanya aturan fuzzy untuk membimbing Sistem Subway Sendai. Dengan menggunakan alat pengembangan logika fuzzy, kita dapat dengan mudah membangun sistem fuzzy yang sederhana, tapi kemudian kita bisa menghabiskan waktu berhari-hari, berminggu-minggu bahkan berbulan-bulan mencoba aturan baru dan menyetel sistem kita. Bagaimana kita membuat proses ini lebih cepat atau, dengan kata lain, bagaimana kita menghasilkan aturan fuzzy yang baik secara otomatis? Dalam beberapa tahun terakhir, beberapa metode yang berbasis pada teknologi jaringan syaraf tiruan telah digunakan untuk mencari data numerik untuk aturan fuzzy. Sistem fuzzy adaptif atau neural dapat menemukan aturan fuzzy baru, atau mengubah dan menyempurnakan yang sudah ada berdasarkan data yang diberikan. Dengan kata lain, data in-rules out, atau pengalaman masuk akal. Jadi, ke mana jurusan ilmu pengetahuan?

Sistem pakar, neural dan fuzzy sekarang telah matang dan telah diterapkan pada berbagai masalah yang berbeda, terutama teknik, kedokteran, keuangan, bisnis dan manajemen. Setiap teknologi menangani ketidakpastian dan ambiguitas pengetahuan manusia secara berbeda, dan setiap teknologi telah menemukan tempatnya di bidang pengetahuan. Mereka tidak lagi bersaing; Sebaliknya mereka saling melengkapi. Sinergi sistem pakar dengan logika fuzzy dan komputasi syaraf meningkatkan kemampuan beradaptasi, robustness, fault-tolerance dan kecepatan sistem berbasis pengetahuan. Selain itu, komputasi dengan kata-kata membuat mereka lebih ‘manusia’. Sekarang praktik umum untuk membangun sistem cerdas menggunakan teori yang ada daripada mengajukan yang baru, dan menerapkan sistem ini pada masalah dunia nyata daripada masalah ‘mainan’.

About: luke

Mahasiswa S3 Jurusan Teknik Elektro dan Informatika ITB, Merupakan founder dari Etunas Sukses Sistem.