Pengenalan
Teknologi Sistim Cerdas
TUGAS
IV
Nama
Kelompok :
Afran
Nafarsani (10114408)
Joko
Himawan (15114687)
R.
Moch. Imron Maulana (18114662)
Ryo
Hendrawan (19114457)
Salman
Rivaldi (19114951)
Silva
Khandiyaas (1A114275)
Thio
Andhika (1A114731)
Weldan
Damassyah (1C114190)
Universitas
Gunadarma
PTA
2016/2017
Kecerdasan Buatan
(Artificial Inteligence) merupakan salah satu bagian dari ilmu komputer yang
mempelajari bagaimana membuat mesin (komputer) dapat melakukan pekerjaan
seperti dan sebaik yang dilakukan oleh manusia bahkan bisa lebih baik daripada
yang dilakukan manusia. Menurut John McCarthy ,1956 , AI : untuk mengetahui dan
memodelkan proses-proses berpikir manusia dan mendesain mesin agar dapat
menirukan perilaku manusia. Cerdas , berarti memiliki pengetahuan ditambah
pengalaman , penalaran (bagaimana membuat keputusan dan mengambil tindakan),
moral yang baik. Tentu saja terdapat perbedaan antara Kecerdasan Buatan dengan
Kecerdeasan Alami, yaitu ; Kecerdasan Buatan lebih bersifat permanen. Kecerdasan
alami bisa berubah karena sifat manusia pelupa. Kecerdasan buatan tidak berubah
selama sistem komputer & program tidak mengubahnya. Lebih mudah diduplikasi
& disebarkan. Mentransfer pengetahuan manusia dari 1 orang ke orang lain
membutuhkan proses yang sangat lama & keahlian tidak akan pernah dapat
diduplikasi dengan lengkap. Jadi jika pengetahuan terletak pada suatu sistem
komputer, maka pengetahuan tersebut dapat disalin dari komputer tersebut &
dapat dipindahkan dengan mudah ke komputer yang lain. Lebih murah. Menyediakan
layanan komputer akan lebih mudah & murah dibandingkan mendatangkan
seseorang untuk mengerjakan sejumlah pekerjaan dalam jangka waktu yang sangat
lama. Bersifat konsisten karena kecerdasan buatan adalah bagian dari teknologi
komputer sedangkan kecerdasan alami senantiasa berubah-ubah. Dapat
didokumentasi. Keputusan yang dibuat komputer dapat didokumentasi dengan mudah
dengan cara melacak setiap aktivitas dari sistem tersebut. Kecerdasan alami
sangat sulit untuk direproduksi. Lebih cepat. Lebih baik.
Kecerdasan Alami bersifat
kreatif. Memungkinkan orang untuk menggunakan pengalaman secara langsung.
Sedangkan pada kecerdasan buatan harus bekerja dengan input-input simbolik.
Pemikiran manusia dapat digunakan secara luas, sedangkan kecerdasan buatan
sangat terbatas.
Sejarah Kecerdasan Buatan
dimulai pada tahun 1950-an dimana Alan Turing, seorang pionir AI dan ahli
matematika Inggris melakukan percobaan. Turing (Turing Test) yaitu sebuah
komputer melalui terminalnya ditempatkan pada jarak jauh. Di ujung yang satu
ada terminal dengan software AI dan diujung lain ada sebuah terminal dengan
seorang operator. Operator itu tidak mengetahui kalua diujung terminal lain
dipasang software AI. Mereka berkomunikasi dimana terminal diujung memberikan
respon terhadap serangkaian pertanyaan yang diajukan oleh operator. Dan sang
operator itu mengira bahwa ia sedang berkomunikasi dengan operator lainnya yang
berada pada terminal lain. Turing beranggapan bahwa jika mesin dapat membuat
seseorang percaya bahwa dirinya mampu berkomunikasi dengan orang lain, maka
dapat dikatakan bahwa mesin tersebut cerdas (seperti layaknya manusia).
Kemudian dari percobaan ini muncul keempat konsep tentang Kecerdasan Buatan
(Artificial Intellegence) :
·
Acting humanly ialah system yang melakukan pendekatan dengan
menirukan tingkah laku seperti manusia yang dikenalkan pada tahun 1950 degan
cara kerja pengujian melalui teletype yaitu jika penguji (integrator) tidak
dapat membedakan yang mengintrogasai antara manusia dan computer maka computer
tersebut dikatakan lolos(menjadi kecerdasan buatan).
·
Thinking Humanly yaitu system yang dilakukan dengan cara
intropeksi yaitu penangkapan pemikiran psikologis. Manusia pada computer,hal
ini sering diujikan dengan neuron ke neuron lainnya atau sel otak dengan sel
otak lainnya cara pembelajarannya yaitu melalui experiment-experimen.
·
Thinking Rationaly merupakan sistem yang sangat sulit ,karena
sering terjadi kesalah data, prinsip dan prakteknya, sistem ini dikenal dengan
penalaran komputasi.
·
Acting Rationaly yaitu sistem yang melakukan aksi dengan cara
menciptakan suatu robotika cerdas yang menggantikan tugas manusia.
Oleh karena itu didalam
pengembangan Kecerdasan Buatan ada empat cabang disiplin ilmu, yaitu :
·
Sistem
Pakar (Expert System), komputer digunakan sebagai sarana untuk menyimpan
pengetahuan para pakar. Dengan demikian komputer akan memiliki keahlian untuk
menyelesaikan permasalahan dengan meniru keahlian yang dimiliki oleh pakar.
·
Pengolahan
Bahasa Alami (Natural Language Processing). Dengan pengolahan bahasa alami ini
diharapkan user dapat berkomunikasi dengan komputer dengan menggunakan bahasa
sehari-hari.
·
Pengenalan
Ucapan (Speech Recognition). Melalui pengenalan ucapan diharapkan manusia dapat
berkomunikasi dengan komputer menggunakan suara.
·
Robotika
& Sistem Sensor (Robotics & Sensory Systems). Suatu program yang
diaplikasikan pada sebuah mesin robot untuk membantu serta menggantikan kinerja
manusia agar lebih cepat. Karena mesin tidak kenal lelah dan bosan.
Natural Language Processing adalah saat
kita melihat bagaimana memanfaatkan pengetahuan yang
berlimpah-limpah yang dinyatakan dalam
bahasa alami. Salah satu faktor
umum dalam menangani tugas ini adalah penggunaan languange model (model
bahasa). Sedangkan Language Model adalah model yang memprediksi probabilitas
distribusi dari ekspresi bahasa. Language MODELS terbagi dalam 4 jenis yaitu :
1.
N-gram character models (Model
karakter N-gram)
2.
Smoothing n-gram models (Meluweskan
model n-gram)
3.
Model Evaluation (Model Evaluasi)
4.
N-gram word models (Model-model
kata n-gram)
Kemudian Klasifikasi
teks, juga dikenal sebagai kategorisasi: diberi teks dari beberapa jenis,
memutuskan mana dari standar set kelas itu dimiliki. Identifikasi bahasa dan klasifikasi genre adalah contoh
dari klasifikasi teks, seperti analisis sentimen (mengelompokkan film atau
produk ulasan positif atau negatif) dan deteksi spam (mengelompokkan pesan
email sebagai spam atau bukan-spam). Klasifikasi
kompresi data merupakan cara lain untuk berpikir tentang klasifikasi sebagai
masalah dalam kompresi data. Sebuah algoritma kompresi lossless mengambil urutan
simbol, mendeteksi pola berulang didalamnya, dan menulis deskripsi dari urutan yang lebih
padu
daripada yang asli. Misalnya, teks ",142857142857142857" mungkin
dikompresi ke "0 [142857] * 3." Algoritma Kompresi bekerja dengan
membangun kamus dari subsequences teks, dan kemudian mengacu pada entri dalam
kamus. Contoh di sini hanya satu entri kamus, "142857."
Kemudian pencarian
informasi
adalah tugas mencari dokumen yang relevan dengan kebutuhan pengguna untuk
informasi. Contoh paling terkenal dari sistem pencarian informasi adalah
mesin pencari di WorldWideWeb.
Sebuah sistem pencarian informasi (selanjutnya
disebut dengan IR),
IR sistem awal bekerja pada model kunci Boolean, Model ini memiliki
keuntungan karena menjadi sederhana untuk penjelasan dan pelaksanaannya. Ada
beberapa metode pada model Boolean yaitu : IR scoring functions (Fungsi penilaian IR), IR system
evaluation (Evaluasi sistem IR), IR refinements (Perbaikan IR), The PageRank
Algorithm (Algoritma PageRank), Algoritma HITS, Menjawab
pertanyaan. Jenis paling sederhana dari sistem
ekstraksi informasi adalah sistem ekstraksi atribut berbasis yang mengasumsikan
bahwa seluruh teks mengacu pada objek tunggal dan tugas ini adalah untuk
mengekstrak atribut bahwa objek. Dan ketika informasi penggalian harus dicoba dari input yang bising atau
berbagai, hingga keadaan pendekatan sederhana yang tidak baik.Terlalu sulit untuk mendapatkan semua aturan dan prioritas
dengan benar; Cara terbaik adalah untuk menggunakan model probabilistik bukan
model berbasis aturan. Model probabilistik sederhana untuk urutan dengan
keadaan tersembunyi adalah model Markov tersembunyi, atau HMM.
Sebuah HMM adalah model generatif; Pemodelan probabilitas
gabungan penuh pengamatan dan keadaan tersembunyi, dan karena itu dapat digunakan untuk
menghasilkan sampel. Artinya, kita bisa menggunakan model HMM tidak hanya untuk
menganalisis teks dan mengambil speaker dan tanggal, tetapi juga untuk
menghasilkan contoh acak dari teks yang berisi speaker dan tanggal.
Sebuah aplikasi yang berbeda dari teknologi ekstraksi
adalah membangun basis pengetahuan atau ontologi fakta corpus a. Hal ini
berbeda dengan tiga cara: Pertama terbuka, kita memperoleh fakta tentang semua
jenis domain, bukan hanya domain tertentu. Kedua, dengan corpus besar, tugas
ini didominasi oleh presisi. Ketiga, hasil dapat dikumpulkan statistik
diperoleh dari berbagai sumber, bukannya diekstraksi dari teks tertentu.
Kemudian bahasa template dirancang untuk memiliki pemetaan dekat dengan para pihak
sendiri untuk mampu belajar otomatis, dan menekankan presisi tinggi.
(Mungkin dengan risiko recall lebih rendah). Setiap template memiliki tujuh
komponen yang sesuai. Penulis dan Judul regexes yang terdiri dari karakter
(dimulai dan berakhiran huruf) dan dibatasi untuk memiliki panjang dari
setengah panjang minimum dari contoh untuk dua kali panjang maksimum. Awalan,
tengah, dan postfix dibatasi untuk string literal no regexes. center adalah
yang paling mudah untuk difahami: setiap string menengah yang berbeda di set
pertandingan adalah template calon yang berbeda.
Dan sebuah mesin-membaca sistem perwakilan adalah
TEXTRUNNER (Banko dan Etzioni, 2008). TEXTRUNNER menggunakan cotraining untuk
meningkatkan kinerjanya, tapi perlu sesuatu untuk bootstrap. TEXTRUNNER mampu
untuk mengekstrak hubungan ( "Einstein," "menerima,"
"Hadiah Nobel"). Mengingat satu set contoh label jenis ini,
TEXTRUNNER melatih linear-rantai CRF untuk mengekstrak contoh lebih lanjut dari
teks berlabel. Fitur dalam CRF termasuk fungsi kata-kata seperti
"untuk" dan "dari" dan "," tapi tidak kata benda
dan kata kerja (dan frase tidak kata benda atau kata kerja frase). Karena
TEXTRUNNER adalah domain-independen, tidak bisa mengandalkan daftar yang telah
ditetapkan kata benda dan kata kerja. TEXTRUNNER mencapai ketepatan 88% dan
recall dari 45% (F1 dari 60%) pada besar corpus web.
Kesimpulan : Kecerdasan buatan merupakan upa-bidang ilmu komputer (computer science) yang khusus ditujukan untuk membuat perangkat lunak dan perangkat keras yang sepenuhnya bisa menirukan beberapa fungsi otak manusia. Atau cabang ilmu komputer yang mempelajari otomatisasi tingkah laku cerdas (intelligent).
Komputer dapat digunakan untuk mengumpulkan informasi
tentang obyek, kegiatan (events), proses dan dapat memproses sejumlah besar
informasi dengan lebih efisien dari yang dapat dikerjakan manusia. Namun di
sisi lain, menusia dengan menggukan insting dapat melakukan hal yang sulit
diprogram pada komputer, yaitu kemampuan mengenali (recognize) hubungan antara
hal-hal tersebut, menilai kualitas dan menemukan palo yang menjelaskan hubungan
tersebut.
Dalam pembuatannya ada sub disiplin ilmu yaitu ada
system pakar, pengolahan Bahasa alami, pengenalan ucapan dan robotika dan
system sensor. Dan juga ada model model language yang sudah digambarkan diatas.
Referensi :
http://irpantips4u.blogspot.co.id/2012/12/konsep-dasar-artificial-intelligence-ai.html Oct 15th, 2016
Muhammad Dahria LPPM-STMIK TRIGUNA DHARMA,
Jurnal9-MD-Kecerdasan Buatan.pdf
0 komentar:
Posting Komentar