Konsep Dasar Matematika/Statistika yang digunakan dalam Artificial Intelligence
Artificial Intelligence (AI) sedang menjadi tren di abad ini. Hal ini tidak terlepas dari berlimpahruahnya data serta dukungan teknologi di penyimpanan dan pengolahan data . Jika dulu minyak adalah aset yang paling berharga, sekarang data digadang-gadang sebagai new oil. Tidak heran bahwa perusahaan raksasa sekarang (Google, Amazon, Facebook) merupakan perusahaan teknologi yang notabene berbasis data.
AI sendiri merupakan suatu teknologi yang berusaha meniru kecerdasan manusia. Berdasarkan caranya, AI bisa dibagi menjadi dua macam yaitu
- Rule Based AI
Merupakan AI yang dibentuk berdasarkan aturan-aturan tertentu. - Machine Learning
Kecerdasan dibentuk dari latihan-latihan yang berupa data.
Cabang AI yang ramai dibicarakan saat ini adalah Machine Learning. Sesuai dengan namanya, Machine Learning berusaha untuk memberikan mesin kemampuan untuk belajar dari data. Contohnya adalah kita mengajarkan mesin kemampuan untuk menentukan mana gambar elang dan kelelawar berdasarkan data latih.
Beberapa Algoritma yang sering digunakan yaitu Random Forest, Analisis Regresi, Decision Tree, K-NN, K-Mean, SVM dan lainnya. Untuk menguasai algoritma-algoritma tersebut, maka kita perlu paham konsep dasar nya. Teori peluang dan matriks bisa dikatakan sebagai fondasi machine learning. Oleh karena itu penting kita mengetahui istilah-istilah di dalam dunia peluang dan matriks.
Beberapa konsep dasar matematika/statistika yang digunakan di Machine Learning adalah
1. Matriks
Dapat dikatakan bahwa data yang akan diproses di segala metode machine learning di convert ke matriks terlebih dahulu. Operasi matriks seperti transpose, invers, dan perkalian akan sering digunakan. Data image juga akan diconvert ke dalam bentuk matriks yang isinya berupa deretan angka seperti pada gambar dibawah ini.
2. Peluang
Selain matriks, teori peluang merupakan fondasi dari statistika dan machine learning. Hasil forecasting, prediksi, maupun uji hipotesis seringkali dituangkan dalam bentuk peluang. Peluang bersyarat merupakan konsep dasar dari algoritma Naive Bayes Classifier.
3. Turunan (Differensial)
Turunan atau differensial juga digunakan di machine learning, terutama untuk menyelesaikan masalah optimization. Sebagaimana yang kita pelajari di SMA, turunan pertama suatu fungsi akan menghasilkan nilai yang optimum. Tidak jauh berbeda, di machine learning berusaha untuk mendapatkan nilai parameter sedemikain hingga lost function nya adalah yang paling kecil. Beberapa teknik optimasi yang sudah disediakan dalam package python yaitu Adam, SGD, RMSpro dan lainnya.
Gradient Descent berusaha untuk menemukan nilai parameter dengan menggunakan turunan untuk menemukan nilai optimum (loss function paling kecil).
4. Dilatasi, Rotasi, dan Refleksi
Transformasi geometri seperti dilatasi, rotasi dan refleksi digunakan dalam augmentasi data yang berguna untuk men-generate data training berdasarkan image yang ada. Dengan augmentasi data, machine akan lebih banyak belajar variasi yang bahkan dari existing image.
5. Eigenvalue
Nilai eigen dan vector eigen memegang peranan penting dalam PCA, yang notabene dipakai untuk reduksi dimensi. Seringkali variabel yang kita miliki bisa sangat banyak sekali misalkan sampai 30 variabel. Variabel-variabel tersebut di machine learning seringkali tidak akan dipakai seluruhnya, hal ini karena ada variabel yang tidak secara signifikan mempengaruhi model dan perlu dibuang.