top of page
Search

Menjelajahi Dunia Kecerdasan Buatan

  • Writer: mohnovil22134
    mohnovil22134
  • Mar 14
  • 8 min read

Otak Manusia
Otak Manusia

Apa Itu Kecerdasan dan Kecerdasan Buatan (AI)?


Intelligence, atau kecerdasan, merujuk pada kemampuan untuk belajar, memahami, memecahkan masalah, serta beradaptasi dengan situasi baru. Kecerdasan tidak hanya melibatkan pemikiran logis, tetapi juga keterampilan sosial dan emosional yang memungkinkan individu atau sistem untuk berinteraksi dengan lingkungan mereka secara efektif.


Sementara itu, kecerdasan buatan (AI) adalah cabang dari ilmu komputer yang bertujuan untuk menciptakan sistem yang dapat melakukan tugas-tugas yang biasanya memerlukan kecerdasan manusia. AI mencakup berbagai kemampuan, mulai dari pemrosesan bahasa alami, pengenalan gambar, hingga pengambilan keputusan yang kompleks, dengan tujuan untuk meningkatkan efisiensi dan memperluas kemampuan manusia dalam menyelesaikan masalah.

Mechanical Turk: Jembatan Antara Manusia dan AI


Mechanical Turk adalah sebuah mesin yang diciptakan pada abad ke-18 oleh seorang ilmuwan bernama Wolfgang von Kempelen. Mesin ini tampak seperti sebuah otomatis, yang mampu memainkan permainan catur dengan sangat baik, bahkan melawan lawan manusia.


Namun, meskipun penampilannya yang mengesankan, rahasianya terungkap setelah beberapa waktu: di dalam kotak besar mesin itu terdapat seorang manusia yang tersembunyi, yang sebenarnya menggerakkan bidak catur dan merespons permainan.


Mesin ini, meskipun dipersepsikan sebagai pencapaian teknologi pada masanya, sebenarnya menggambarkan keterbatasan awal dalam menciptakan sistem otomatis yang sepenuhnya cerdas. Konsep "Mechanical Turk" ini kemudian menjadi simbol bagi keterlibatan manusia dalam menyelesaikan tugas-tugas yang dianggap sulit atau rumit untuk diselesaikan oleh mesin, yang pada gilirannya berperan penting dalam perkembangan AI di masa depan.

Mesin Mechanical Turk
Mesin Mechanical Turk

ELIZA: Langkah Pertama AI dalam Berbicara dengan Manusia


Pada tahun 1966, seorang ilmuwan bernama Joseph Weizenbaum menciptakan sebuah program komputer bernama ELIZA. Program ini dirancang untuk meniru percakapan antara seorang pasien dan seorang psikoterapis, dengan tujuan untuk menunjukkan bagaimana mesin bisa berinteraksi dengan manusia menggunakan bahasa alami. ELIZA dibuat dalam waktu yang relatif singkat, yaitu hanya beberapa bulan, namun meskipun sederhana, ia berhasil menciptakan ilusi seolah-olah komputer memahami percakapan tersebut.


ELIZA bekerja dengan cara yang cukup sederhana, yaitu menggunakan teknik yang disebut "pattern matching." Teknik ini memungkinkan program untuk mencocokkan kata atau kalimat yang dimasukkan oleh pengguna dengan pola yang telah diprogram sebelumnya. Jika pola yang dicari ditemukan, ELIZA memberikan respons yang sudah dipersiapkan sebelumnya sesuai dengan pola itu. Misalnya, jika pengguna berkata, "Saya merasa cemas," ELIZA bisa merespons dengan, "Mengapa Anda merasa cemas?" Ini adalah cara untuk menggali lebih dalam, seperti halnya seorang psikoterapis yang bertanya lebih lanjut.


Logika yang digunakan dalam ELIZA lebih mirip dengan serangkaian perintah if-else, di mana program memeriksa kata-kata yang digunakan oleh pengguna dan memberikan respons berdasarkan aturan yang sudah ditentukan. Meskipun terkesan sangat sederhana dan hanya mencocokkan kata-kata, cara ini memberikan kesan bahwa mesin dapat memahami dan merespons percakapan manusia. Meskipun tidak benar-benar "paham" dalam pengertian manusia, ELIZA membuka pintu untuk kemungkinan baru dalam interaksi manusia dan mesin, serta menginspirasi banyak penelitian lebih lanjut dalam bidang kecerdasan buatan.

Tampilan Antarmuka Eliza
Tampilan Antarmuka Eliza

Narrow AI vs General AI dan Singularitas

Dalam dunia kecerdasan buatan (AI), ada dua konsep utama yang sering dibicarakan: Narrow AI (AI Terbatas) dan General AI (AI Umum).


Narrow AI adalah jenis kecerdasan buatan yang dirancang untuk melakukan satu tugas atau serangkaian tugas tertentu dengan sangat baik. Misalnya, sistem rekomendasi film di Netflix atau asisten virtual seperti Siri atau Google Assistant. Narrow AI hanya bisa bekerja dalam lingkup yang sudah diprogramkan untuknya, dan tidak bisa melakukan hal-hal di luar tugas yang spesifik itu. Meskipun sangat efektif dalam bidang tertentu, ia tidak memiliki kemampuan untuk belajar atau beradaptasi di luar area tersebut.


Di sisi lain, General AI (atau kadang disebut sebagai Artificial General Intelligence, AGI) adalah jenis kecerdasan buatan yang lebih canggih dan fleksibel. General AI memiliki kemampuan untuk memahami, belajar, dan melaksanakan berbagai tugas, sama seperti manusia. Ia bisa berpikir secara kreatif, menyelesaikan masalah yang tidak pernah diprogramkan, dan beradaptasi dengan situasi baru tanpa bantuan manusia. Namun, sampai sekarang, General AI masih menjadi konsep teoritis dan belum benar-benar terwujud.


Singularitas, di sisi lain, merujuk pada titik waktu dalam perkembangan teknologi ketika AI akan menjadi sangat cerdas hingga melebihi kecerdasan manusia. Pada saat itu, AI akan mampu membuat inovasi dan keputusan secara mandiri tanpa keterlibatan manusia, yang dapat mengubah secara drastis cara hidup kita. Singularity adalah gambaran masa depan di mana kecerdasan buatan menjadi sangat maju, sehingga manusia dan mesin akan sulit dibedakan dalam hal kemampuan berpikir dan berkreasi.


Secara singkat, Narrow AI adalah kecerdasan terbatas pada satu tugas, General AI adalah kecerdasan yang bisa mengerjakan berbagai tugas seperti manusia, dan Singularitas adalah momen ketika AI mengatasi kecerdasan manusia dan berkembang melampaui batas-batas yang kita pahami.

Perbedaan AI, ML, dan Deep Learning


AI (Kecerdasan Buatan), ML (Pembelajaran Mesin), dan Deep Learning adalah tiga istilah yang sering digunakan dalam dunia teknologi, namun masing-masing memiliki perbedaan yang penting.


AI (Kecerdasan Buatan) adalah bidang yang lebih luas yang mencakup segala hal yang berkaitan dengan menciptakan mesin atau sistem yang dapat meniru kecerdasan manusia. Tujuan utama AI adalah untuk mengembangkan mesin yang dapat berpikir, belajar, dan menyelesaikan masalah seperti manusia, meskipun tidak selalu secara sempurna.


ML (Machine Learning) adalah bagian dari AI yang berfokus pada bagaimana mesin dapat belajar dari data tanpa diprogram secara eksplisit. Alih-alih mengikuti perintah langsung, ML memungkinkan sistem untuk menganalisis data, mengenali pola, dan membuat keputusan berdasarkan pengalaman (data) yang sudah dipelajari. Contoh sederhana adalah sistem rekomendasi di aplikasi belanja online yang mempelajari preferensi pembeli.


Deep Learning adalah subset dari ML yang lebih mendalam dan lebih canggih. Deep Learning menggunakan jaringan saraf tiruan (neural networks) yang terinspirasi oleh cara otak manusia bekerja. Jaringan ini memiliki banyak lapisan (deep layers) yang memungkinkan komputer untuk mengenali pola yang lebih kompleks, seperti mendeteksi wajah dalam gambar atau menerjemahkan bahasa. Deep Learning membutuhkan banyak data dan daya komputasi untuk berfungsi dengan baik, namun hasilnya dapat sangat akurat dan bertenaga.

5 Tribes of Machine Learning menurut Pedro Domingos


Dalam bukunya yang terkenal, The Master Algorithm, Pedro Domingos mengidentifikasi lima "tribe" atau aliran utama dalam bidang pembelajaran mesin (Machine Learning). Setiap tribe ini memiliki pendekatan dan teori berbeda untuk mengembangkan algoritma pembelajaran mesin. Berikut adalah penjelasan singkat tentang lima tribe tersebut:


  1. Symbolists (Simbolis)

    Asal-usul: Logika dan filsafat

    Algoritma Utama: Inverse deduction

    Tribe ini berfokus pada penggunaan logika formal dan filosofi untuk membuat mesin berpikir dan memecahkan masalah dengan cara deduksi terbalik. Mereka percaya bahwa dengan menggunakan aturan logika yang jelas, komputer dapat memecahkan masalah yang kompleks, seperti yang dilakukan oleh sistem pakar.


  2. Connectionists (Koneksionis)

    Asal-usul: Neurosains

    Algoritma Utama: Backpropagation

    Koneksionis terinspirasi oleh cara otak manusia bekerja, menggunakan jaringan saraf tiruan untuk memungkinkan komputer belajar dari data. Dengan algoritma seperti backpropagation, sistem ini bisa mengubah bobot jaringan saraf untuk mengoptimalkan prediksi berdasarkan data yang telah diberikan, seperti yang digunakan dalam deep learning.


  3. Evolutionaries (Evolusioner)

    Asal-usul: Biologi evolusioner

    Algoritma Utama: Genetic programming

    Tribe ini mengambil pendekatan yang terinspirasi oleh teori evolusi dan seleksi alam. Mereka menggunakan genetic programming, yang melibatkan penciptaan dan evolusi program komputer dengan cara yang mirip dengan proses biologis seperti seleksi alam, mutasi, dan reproduksi.


  4. Bayesians (Bayesian)

    Asal-usul: Statistik

    Algoritma Utama: Probabilistic inference

    Para Bayesian fokus pada pengambilan keputusan yang didasarkan pada probabilitas dan statistik. Mereka menggunakan pendekatan probabilistic inference untuk model prediksi dan keputusan, memanfaatkan distribusi probabilitas untuk membuat estimasi terbaik berdasarkan data yang tidak pasti atau tidak lengkap.


  5. Analogizers (Analogis)

    Asal-usul: Psikologi

    Algoritma Utama: Kernel machines

    Tribe ini terinspirasi oleh cara manusia menggunakan analogi untuk memecahkan masalah. Mereka menggunakan metode kernel machines untuk menemukan hubungan antara data yang tampaknya tidak terkait. Teknik ini membantu mesin belajar dari pola atau hubungan yang ada di dalam data.

Cara Kerja Neural Network yang Meniru Neuron Manusia


Neural Network (Jaringan Saraf Tiruan) bekerja dengan meniru cara kerja neuron di otak manusia. Sebuah jaringan saraf terdiri dari banyak lapisan (layers) yang saling terhubung, dan setiap lapisan ini berfungsi untuk memproses informasi secara bertahap. Setiap unit dalam jaringan disebut neuron, yang memiliki peran dalam memproses informasi yang diberikan.


Cara kerjanya adalah sebagai berikut:

  1. Input Layer: Informasi atau data dimasukkan ke dalam input layer. Setiap input diberi bobot tertentu yang akan mempengaruhi hasil akhir.


  2. Neurons (Neuron): Setiap neuron akan menghitung hasil dari input yang diberikan berdasarkan bobot yang ada, lalu menerapkan fungsi aktivasi untuk menentukan outputnya.


  3. Activation Function: Hasil yang dihitung oleh neuron kemudian diproses melalui fungsi aktivasi (activation function), yang menentukan apakah informasi itu cukup kuat untuk diteruskan ke lapisan berikutnya.


  4. Output Layer: Setelah diproses melalui beberapa lapisan, informasi diteruskan ke output layer, yang menghasilkan prediksi atau keputusan akhir.


Pada dasarnya, neural network belajar dengan memperbarui bobot-bobot pada setiap koneksi antar neuron berdasarkan kesalahan (error) yang ditemukan saat prediksi tidak sesuai dengan hasil yang diinginkan. Kesalahan ini dihitung, dan bobot-bobot neuron diperbaiki untuk memperbaiki hasil prediksi pada iterasi berikutnya.

Gambar ini menggambarkan cara kerja sebuah neuron dalam jaringan saraf tiruan.

Rumusnya adalah:



  1. Xi: Input atau variabel (misalnya fitur data seperti harga rumah, usia, dll).

  2. Wi: Bobot yang mengukur pengaruh setiap input terhadap output.

  3. b: Bias yang membantu menyesuaikan hasil output.

  4. y: Output neuron yang dihitung setelah proses ini.

  5. Fungsi Aktivasi (ϕ): Fungsi yang mengubah hasil penjumlahan input dan bobot menjadi output akhir yang diteruskan ke lapisan berikutnya atau sebagai hasil prediksi.


Proses kerjanya adalah:

  1. Input dikalikan dengan bobot, kemudian dijumlahkan.

  2. Bias ditambahkan untuk menyesuaikan hasil.

  3. Hasilnya diproses oleh fungsi aktivasi untuk menentukan output y


Fungsi Aktivasi

Penjelasan Singkat

Sigmoid

Fungsi ini memberikan output antara 0 dan 1, sering digunakan dalam masalah klasifikasi biner.

Tanh

Fungsi Tanh memberikan output antara -1 dan 1, sering digunakan untuk menangani data yang memiliki 2 kategori.

ReLU (Rectified Linear Unit)

ReLU mengubah semua nilai negatif menjadi 0, dan membiarkan nilai positif tetap utuh. Sangat populer dalam deep learning karena kemampuannya yang efisie.

Maxout

Fungsi ini memilih nilai maksimum sejumlah input yang di berikan. fleksibel karena dapat beradaptasi dengan berbagai jenis data.

Leaky ReLU

Mirip dengan ReLU, namun untuk nilai negatif, hasilkan aka lebih kecil dari 0, menggunakan parameter tertentu dan menghindari masalah "dying ReLU"

ELU (Exponentional Linear Unit)

ELU memperkenalkan komponen eksponensial untuk nilai input negatif, mempercepat konvergensi dan mengurangi masalah vanishing gradient.

Cara Kerja Hidden Layer


Hidden Layer adalah lapisan yang terletak di antara input dan output dalam neural network. Lapisan ini berfungsi untuk memproses informasi secara lebih mendalam dan mengidentifikasi pola atau fitur yang lebih kompleks.

  • Semakin Banyak Hidden Layer: Ketika semakin banyak hidden layer ditambahkan, jaringan neural akan memiliki kemampuan yang lebih besar untuk mempelajari pola yang lebih kompleks dan abstrak. Ini sangat berguna dalam masalah yang lebih rumit seperti pengenalan gambar atau pemrosesan bahasa alami. Namun, semakin banyak lapisan juga meningkatkan risiko overfitting (model terlalu menyesuaikan data pelatihan) dan memperlambat proses pelatihan.

  • Semakin Sedikit Hidden Layer: Dengan sedikit lapisan tersembunyi, model lebih sederhana dan lebih cepat dilatih. Namun, model ini mungkin tidak mampu menangkap pola yang lebih kompleks dalam data, yang mengarah pada performa yang lebih buruk pada masalah yang lebih rumit.



Apa Itu Backpropagation?


Backpropagation adalah algoritma yang digunakan untuk melatih neural network. Tujuannya adalah untuk mengoptimalkan bobot-bobot dalam jaringan agar model bisa menghasilkan prediksi yang lebih akurat.


Proses ini dimulai dengan melakukan forward pass: informasi dimasukkan ke dalam jaringan, dan output dihitung. Kemudian, kesalahan (error) dihitung dengan membandingkan output yang dihasilkan dengan output yang sebenarnya (target). Selanjutnya, backpropagation menghitung kontribusi kesalahan tersebut pada setiap bobot di jaringan, mulai dari output layer hingga input layer. Bobot kemudian diperbarui dengan menggunakan algoritma optimasi, seperti gradient descent, untuk meminimalkan kesalahan.


Dengan melakukan backpropagation berulang kali selama pelatihan, neural network secara perlahan memperbaiki bobotnya untuk menghasilkan hasil yang lebih baik dan lebih akurat pada setiap iterasi.



Pentingnya Dataset bagi Machine Learning


Dataset adalah kumpulan data yang digunakan untuk melatih model machine learning agar bisa belajar dan membuat prediksi. Dataset sangat penting karena kualitas dan keberagaman data yang digunakan akan mempengaruhi seberapa baik model dapat belajar dan berfungsi.


Misalnya, jika kita ingin membuat model untuk memprediksi harga rumah, kita membutuhkan dataset yang berisi informasi tentang harga rumah, ukuran rumah, lokasi, jumlah kamar tidur, dan faktor lainnya. Semakin banyak data yang relevan dan bervariasi, semakin baik model dapat memahami pola dan hubungan antar faktor-faktor tersebut.


Contoh: Jika kita hanya memberi model data harga rumah yang sangat sedikit, misalnya hanya 5 rumah, model tidak akan bisa mempelajari pola yang baik. Tapi jika kita memberi data tentang 1000 rumah dengan berbagai ukuran, lokasi, dan harga, model akan dapat mengenali hubungan yang lebih kompleks dan memberikan prediksi yang lebih akurat.


Secara singkat, dataset adalah "makanan" bagi machine learning—tanpa data yang baik dan cukup, model tidak bisa belajar dengan benar. Data yang buruk atau tidak lengkap bisa menghasilkan model yang tidak akurat atau bahkan gagal.






 
 
 

Comments


AKU NOVIL

Blog ini adalah hasil dari perjalanan belajar dan eksplorasi, semoga bisa menjadi sumber informasi yang bermanfaat dan inspiratif bagi semua pembaca.

UNESA (Universitas Negeri Surabaya)_edit
  • LinkedIn
  • Instagram
  • TikTok
  • Youtube
bottom of page