Apa
itu kecerdasaan buatan ?
Kecerdasan
Buatan atau kecerdasan yang ditambahkan kepada suatu
sistem yang bisa diatur dalam konteks ilmiah atau Intelegensi Artifisial (bahasa
Inggris: Artificial Intelligence atau hanya
disingkat AI) didefinisikan sebagai kecerdasan entitas ilmiah.
Sistem seperti ini umumnya dianggap komputer. Kecerdasan diciptakan dan
dimasukkan ke dalam suatu mesin (komputer)
agar dapat melakukan pekerjaan seperti yang dapat dilakukan manusia.
Beberapa macam bidang yang menggunakan kecerdasan buatan antara lain sistem
pakar, permainan komputer (games), logika fuzzy, jaringan syaraf
tiruan dan robotika.
Banyak hal yang kelihatannya sulit untuk
kecerdasan manusia, tetapi untuk Informatika relatif
tidak bermasalah. Seperti contoh: mentransformasikan persamaan, menyelesaikan
persamaan integral, membuat permainan catur atau Backgammon. Di sisi lain, hal
yang bagi manusia kelihatannya menuntut sedikit kecerdasan, sampai sekarang
masih sulit untuk direalisasikan dalam Informatika.
Seperti contoh: Pengenalan Objek/Muka, bermain sepak bola.
Sejarah Kecerdasaan Buatan
1.
Era komputer elektronik (1941)
Pada tahun 1941 telah ditemukan alat penyimpanan dan
pemrosesan informasi. Penemuan tersebut dinamakan komputer elektronik yang
dikembangkan di USA dan Jerman. Komputer pertama ini memerlukan ruangan yang
luas da ruang AC yang terpisah. Saat itu komputer melibatkan konfigurasi ribuan
kabel untuk menjalankan suatu program. Hal ini sangat merepotkan para
programmer.
Pada tahun 1949,
berhasil dibuat komputer yang mampu menyimpan program sehingga membuat
pekerjaan untuk memasukkan program menjadi lebih mudah. Penemuan ini menjadi
dasar pengembangan program yang mengarah ke AI.
2.
Masa persiapan AI (1943-1956)
Pada tahun 1943, Warren McCulloch dan Walter Pitts
mengemukakan tiga hal: pengetahuan fisiologi dasar dan fungsi sel syaraf dalam
otak, analisis formal tentang logika proposisi, dan teori komputasi Turing.
Mereka berhasil membuat suatu model syaraf tiruan di mana setiap neuron
digambarkan sebagai ‘on’ dan ‘off’. Mereka menunjukkan bahwa setiap fungsi
dapat dihitung dengan suatu jaringan sel syaraf dan bahwa semua hubungan logis
dapat diimplementasikan dengan struktur jaringan yang sederhana.
Pada tahun 1950, Norbert Wiener membuat penelitian mengenai
prinsip-prinsip teori feedback. Contoh terkenal adalah thermostat. Penemuan ini
juga merupakan awal dari perkembangan AI. Pada tahun 1956, John McCarthy (yang
setelah lulus dari Priceton kemudian melanjutkan ke Darthmouth College)
meyakinkan Minsky, Claude Shannon, dan Nathaniel Rochester untuk membantunya
melakukan penelitian dalam bidang automata, jaringan syaraf, dan pembelajaran
intelijensia. Mereka mengerjakan proyek ini selama 2 bulan di Dartmouth.
Hasilnya adalah program yang mampu berpikir non-numerik dan menyelesaikan
masalah pemikiran, yang dinamakan Principia Mathematica. Hal ini menjadikan
McCarthy disebut sebagai father of Artificial Intelligence.
3.
Awal perkembangan (1952-1969)
Pada tahun-tahun pertama perkembangannyam Ai mengalami
banyak kesuksesan. Diawali dengan kesuksesan Newell dan Simon dengan sebuah
program yang disebut general problem solver. Program ini dirancang untuk
memulai penyelesaian masalah secara manusiawi. Pada tahun 1958, McCarthy di MIT
AI Lab Memo No 1 mendefinisikan bahasa pemrograman tingkat tinggi yaitu LISP,
yang sekarang mendominasi pembuatan program-program AI. Kemudian, McCarthy
membuat program yang dinamakan programs with common sense. Di dalam program
tersebut, dibuat rancangan untuk menggunakan pengetahuan dalam mencari solusi.
Pada tahun 1959, Nathaniel Rochester dari IBM dan para
mahasiswanya mengeluarkan program AI yaitu geometry theorm prover. Program ini
dapat mebuktikan suatu teorema menggunakan axioma-axioma yang ada. Pad atahun
1963, program yang dibuat James Slagle mampu menyelesaikan masalah integral
tertutup untuk mata kuliah Kalkulus. Pada tahun 1968, program analogi buatan
Tom Evan menyelesaikan masalah analogi geometri yang ada pada tes IQ.
4.
Perkembangan AI melambat (1966-1974)
Prediksi Herbert Simon pada tahun 1957 yang menyatakan bahwa
AI akan menjadi ilmu pengetahuan yang akan berkembang dengan pesat ternyata
meleset. Pada 10 tahun kemudian, perkembangan AI melambat. Hal ini disebabkan
adanya 3 kesulitan utama yang dihadapi AI, yaitu:
A.
Program-program AI yang bermunculan
hanya mengandung sedikit atau bahkan tidak mengandung sama sekali pengetahuan
pada subjeknya. Program-program AI berhasil hanya karena manipulasi sisntetis
yang sederhana. Sebagai contoh adalah Weizenbaum’s ELIZA program (1965) yang
dapat melakukan percakapan serius pada berabgai topik, sebenarnya hanya
peminjaman dan manipulasi kalimat-kalimat yang diketikkan oleh manusia.
B.
Banyak masalah yang harus
diselesaikan oleh AI, karena terlalu banyaknya masalah yang berkaitan, mak
atidak jarang banyak terjadi kegagalan pada pembuatan program AI.
C.
Ada beberapa batasan pada struktur
dasar yang digunakan untuk menghasilkan perilaku intelijensia. Sebagai contoh
adalah pada tahun 1969, buku Minsky dan Papert Perceptrons membuktikan bahwa
meskipun program-program perceptron dapat mempelajari segala sesuatu, tetapi
program-program tersebut hanya merepresentasikan sejumlah kecil saja. Sebagai
contoh masukan perceptron yang berbeda tidak dapat dilatihkan untuk mengenali
kedua masukan berbeda tersebut.
5.
Sistem berbasis pengetahuan
(1969-1979)
Pengetahuan adalah kekuatan pendukung AI. Ha ini dibuktikan
dengan program yang dibuat oleh Ed Feigenbaum, Bruce Buchanan, dan Joshua
Lederberg yang membuat program untuk memecahkan masalah struktur molekul dari
informasi yang didapatkan dari spectometer massa. Program ini dinamakan dendral
programs yang berfokus pada segi pengetahuan kimia. Dari segi diagnosa medis
juga sudah ada yang menemukannya, yaitu Saul Amarel dalam proyek computer ini
biomedicine. Proyek ini diawali dari keinginan untuk mendapatkan diagnosa
penyakit berdasarkan pengetahuan yang ada pada mekanisme penyebab proses
penyakit.
6.
AI menjadi sebuah industry
(1980-1988)
Industralisasi AI diawali dengan ditemukannya sistem pakar
yang dinamakan R1 yang mamapu mengkonfigurasi sistem-sistem komputer baru.
Program tersebut mulai dioperasikan di digital equipment corporation (DEC),
McDermott, pada tahun 1982. Paa tahun 1986, program ini telah berhasil
menghemat US$ 40 juta per tahun. Pada tahun 1988, kelompok AI di DEC
menjalankan 40 sistem pakar. Hamper semua perusahaan besar di USA mempunyai
didivisi Ai sendiri yang menggunakan ataupun mempelajari sistem pakar. Booming
industry Ai juga melibatkan perusahaan-perusahaan besar seperti Carnegie Group,
Inference, Intellicorp, dan Technoledge yang menawarkan software tools untuk membangun
sistem pakar. Perusahaan hardware seperti LISP Machines Inc.
Texas Instruments, Symbolics, dan Xerox juga turut berperan
dalam membangun workstation yang dioptimasi untuk pembangunan program LISP.
Sehingga, perusahaan yang sejak tahun 1982 hanya menghasilkan beberapa juta US$
per tahun meningkat menjasi 2 milyar US$ per tahun pada tahun 1988.
7.
Kembalinya jaringan syaraf tiruan
(1986 – sekarang)
Meskipun bidang ilmu komputer menolak jaringan syaraf tiruan
setelah diterbitkannya buku ‘Perceptrons’ karangan Minsky dan Papert, tetapi
para ilmuwan masih mempelajari bidang ilmu tersebut dari sudut pandang yang
lain, yaitu fisika. Para ahli fisika seperti Hopfield (1982)) menggunakan
teknik-teknik mekanika statistika untuk menganalisa sifat-sifat penyimpanan dan
optimasi pada jaringan syaraf. Para ahli psikolog, David Rumhelhart dan Geoff
Hinton, melanjutkan penelitian mengenai model jaringan syaraf pada memori. Pada
tahun 1985-an sedikitnya empat kelompok riset menemukan kembali algoritma
belajar propagasi balik. Algoritma ini berhasil diimplementasikan ke dalam ilmu
bidang komputer dan psikologi.
Berikut ini beberapa contoh aplikasi AI, antara lain:
Ø Logic Theorist, diperkenalkan pada Dartmouth Conference,
program ini dapat membuktikan teorema-teorema matematika.
Ø Sad Sam, diprogram oleh Robert K. Lindsay (1960). Program
ini dapat mengetahui kalimat-kalimat sederhana yang ditulis dalam bahasa
Inggris dan mampu memberikan jawaban dari fakta-fakta yang didengar dalam
sebuah percakapan.
Ø ELIZA, diprogram oleh Joseph Weinzenbaum (1967). Program ini
mampu melakukan terapi terhadap pasien dengan memberikan beberapa pertanyaan.
Ø Deep Blue mengalahkan Kasparov, juara dunia Catur.
Ø PEGASUS, suatu sistem memahami ucapan yang mampu menangani
transaksi seperti mendapatkan informasi tiket udara termurah.
Ø MARVEL, suatu sistem pakar real-time memonitor arus data
dari pesawat Voyager dan setiap anomali sinyal.
Ø Sistem robot mengemudikan sebuah mobil dengan kecepatan yang
cepat pada jalan raya umum.
Ø Suatu diagnostik sistem pakar sedang mengkoreksi hasil
diagnosis pakar yang sudah punya reputasi.
Ø Agent pintar untuk bermacam-macam domain yang bertambah pada
laju yang sangat tinggi.
Ø Subjek materi pakar mengajar suatu learning agent
penalarannya dalam pusat penentuan gravitasi.
Referensi :
Tidak ada komentar:
Posting Komentar