Articles

Found 22 Documents
Search

KOMBINASI TEKNIK CHI SQUARE DAN SINGULAR VALUE DECOMPOSITION UNTUK REDUKSI FITUR PADA PENGELOMPOKAN DOKUMEN Supriyanto, Catur; Affandy, Affandy Affandy
Semantik Vol 1, No 1 (2011): Prosiding Semantik 2011
Publisher : Semantik

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (597.941 KB)

Abstract

Clustering dokumen adalah proses pengelompokan dokumen yang memiliki kesamaan topik. Metode Vector Space Model (VSM) merepresentasikan sekumpulan dokumen dalam bentuk matrik term-document, dimana setiap kolomnya mewakili dokumen dan setiap barisnya mewakili term (kata) yang terkandung dalam dokumen tersebut. Masalah yang terjadi dalam VSM adalah besarnya dimensi dan banyaknya nilai nolyang dihasilkan pada matrik term-document. Hal ini dapat mengurangi performa dari proses pengelompokan dokumen. Penelitian sebelumnya menunjukkan bahwa Latent Semantic Indexing (LSI) dengan menggunakan Singular Value Decomposition (SVD) mampu mereduksi besarnya dimensi matrik, namun SVD membutuhkan waktu proses komputasi yang relatif lama. Kajian ini mengusulkan penggunaanseleksi fitur untuk mengatasi kelemahan tersebut, dimana seleksi fitur akan menyeleksi term-term yang memiliki kontribusi yang besar untuk penentuan topik sebuah dokumen. Tahap preprocessing yang diusulkan meliputi tokenization, stopword removal dan stemming. Penelitian akan memfokuskanpemanfaatan chi-square sebagai seleksi fitur dan SVD untuk diterapkan dalam k-means clustering. Hasil penelitian menunjukan bahwa penggunaan chi-square mampu meningkatkan performa SVD dalam proses pengelompokan 150 dokumen. Sebanyak 1991 term berhasil diperoleh setelah tahap preprocessing dilakukan. Setelah melalui tahap seleksi fitur, rank-10 SVD dengan menggunakan 10 term dapat meningkatkan nilai F-measure dari 0.92 menjadi 0.97, serta dapat menurunkan waktu komputasi dari SVD hingga 48 persen.Kata kunci : Clustering, Dokumen, VSM, SVD, Chi-square
INTEGRASI PERINGKAS DOKUMEN OTOMATIS SEBAGAI FEATURE REDUCTION PADA CLUSTERING DOKUMEN Salam, Abu; Supriyanto, Catur; Fahmi, Amiq
Semantik Vol 2, No 1 (2012): Prosiding Semantik 2012
Publisher : Semantik

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1035.638 KB)

Abstract

Clustering dokumen merupakan proses pengelompokan dokumen yang memiliki kesamaan topik, clustering dokumen memudahkan pengguna menemukan dokumen yang diinginkan. Dalam proses clustering dokumen, dokumen direpresentasikan menggunakan Vector Space Model (VSM). Masalah dalam VSM adalah matrik term-dokumen biasanya sangat jarang (banyak mengandung angka 0 dalam term-dokumen matrik) dan juga mempunyai dimensi tinggi, sehingga masalah-masalah ini dapat mengurangi kinerja clustering dokumen. Oleh karena itu diperlukan suatu metode untuk bisa mengurangi dimensi term-dokumen dan menghilangkan term yang bernilai 0 tersebut sehingga dapat meningkatkan kinerja proses clustering. Dalam penelitian ini diusulkan model peringkas dokumen otomatis sebagai feature reduction pada proses clustering dokumen.Tujuan dari penelitian ini adalah untuk meningkatkan akurasi dari clustering dokumen dengan mengintegrasikan peringkas dokumen otomatis sebagai feature reduction. Ada beberapa tahapan clustering dalam penelitian ini, yaitu preprocessing, peringkas dokumen otomatis, pembobotan kata, feature selection, feature transformation dan algoritma clustering. Tahap Preprocessing yang digunakan dalam penelitian ini adalah tokenization, stopword, stemming dan pemenggalan kalimat. Proses peringkas dokumen otomatis ditujukan untuk penyeleksian kalimat agar didapatkan ringkasan teks yang diperoleh dengan menyajikan kembali bagian tulisan yang dianggap topik utama tulisan dengan bentuk yang lebih disederhanakan baru kemudian selanjutnya dilakukan proses pembobotan kata, feature selection, feature transformation dan clustering. Hasil penelitian menunjukkan bahwa integrasi peringkas dokumen otomatis sebagai feature reduction dapat meningkatkan kinerja clustering dokumen sampai dengan 91,7 %, mengalami peningkatan dari tingkat akurasi 89,6 % untuk proses feature reduction tanpa menggunakan peringkas dokumen otomatis. Kemudian pengaruh Integrasi peringkas dokumen otomatis sebagai feature reduction untuk waktu komputasi yang dibutuhkan adalah pada % feature selection yang semakin kecil integrasi peringkas dokumen otomatis sebagai feature reduction membutuhkan tambahan waktu komputasi tersendiri, akan tetapi pada proporsi feature selection yang semakin besar, % peringkas dokumen otomatis dapat menurunkan waktu komputasi yang digunakan.Kata kunci: Text mining; Clustering Dokumen; Peringkas Dokumen Otomatis.
ANALISA PENGARUH PERBEDAAN MEDIUM AIR DAN UDARA TERHADAP KALIBRASI KAMERA DENGAN MENGGUNAKAN METODE ZHANG Nurtantio Andono, Pulung; Shidik, Guruh Fajar; Pramunendar, Ricardus Anggi; Supriyanto, Catur; Hariadi, Mochamad
Semantik Vol 2, No 1 (2012): Prosiding Semantik 2012
Publisher : Semantik

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (647.881 KB)

Abstract

Pada paper ini kami melakukan penelitian untuk mencari pengaruh perbedaan medium terhadap kalibrasi kamera. Kami melakukan komparasi analisa kalibrasi kamera yang dilakukan di udara dan di air, untuk mengetahui tingkat perbedaannya. Pada studi komparasi analisa ini kami menggunakan tehnik kalibrasi Zhang yang sudah biasa digunakan untuk kalibrasi kamera. Hasil experimen yang diukur merupakan perbandingan nilai focal length. Dari hasil percobaan yang dilakukan, didapatkan bahwa adanya perbedaan nilai focal length kamera pada medium air dan udara sebesar 36%.Kata kunci : Kalibrasi Kamera, Metode Zhang
OPTIMASI K-MEANS CLUSTERING UNTUK IDENTIFIKASI DAERAH ENDEMIK PENYAKIT MENULAR DENGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DI KOTA SEMARANG Rustam, Suhardi; Santoso, Heru Agus; Supriyanto, Catur
ILKOM Jurnal Ilmiah Vol 10, No 3 (2018)
Publisher : Program Studi Teknik Informatika Fakultas Ilmu Komputer Univeristas Muslim Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (585.534 KB) | DOI: 10.33096/ilkom.v10i3.342.251-259

Abstract

Tropical regions is a region endemic to various infectious diseases. At the same time an area of high potential for the presence of infectious diseases. Infectious diseases still a major public health problem in Indonesia. Identification of endemic areas of infectious diseases is an important issue in the field of health, the average level of patients with physical disabilities and death are sourced from infectious diseases. Data Mining in its development into one of the main trends in the processing of the data. Data Mining could effectively identify the endemic regions of hubunngan between variables. K-means algorithm klustering used to classify the endemic areas so that the identification of endemic infectious diseases can be achieved with the level of validation that the maximum in the clustering. The use of optimization to identify the endemic areas of infectious diseases combines k-means clustering algorithm with optimization particle swarm optimization ( PSO ). the results of the experiment are endemic to the k-means algorithm with iteration =10, the K-Fold =2 has Index davies bauldin = 0.169 and k-means algorithm with PSO, iteration = 10, the K-Fold = 5, index davies bouldin = 0.113. k-fold = 5 has better performance.
ALGORITMA KLASIFIKASI DATA MINING NAIVE BAYES BERBASIS PARTICLE SWARM OPTIMIZATION UNTUK DETEKSI PENYAKIT JANTUNG Widiastuti, Nur Aeni; Santosa, Stefanus; Supriyanto, Catur
Jurnal Pseudocode Vol 1, No 1 (2014)
Publisher : UNIB Press, Universitas Bengkulu

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.33369/pseudocode.1.1.11-14

Abstract

Data mining sering disebut Knowledge Discovery in Database (KDD). Data mining biasanya digunakan untuk memperbaiki pengambilan keputusan di masa yang akan datang berdasarkan informasi yang diperoleh dari masa lalu. Misalnya untuk prediksi, estimasi, assosiasi, clustering, dan deskripsi. Sekumpulan data yang ada di laboratorium klinik belum difungsikan secara efektif dan hanya di fungsikan sebagai arsip untuk riwayat penyakit pasien. Jantung merupakan pembunuh nomor satu di dunia. Kurangnya aliran darah dan oksigen ke jantung bisa menyebabkan penyakit jantung. Pada penelitian ini akan membandingkan algoritma klasifikasi data mining Naive Bayes Berbasis PSO untuk deteksi penyakit jantung. Pengukuran dengan Naives Bayes menghasilkan akurasi 82.14%, sementara dengan Naives Bayes Berbasis Particle Swarm Optimization akurasi meningkat menjadi 92.86%. Tingkat akurasi dibandingkan dengan hasil laboratorium.Kata Kunci: Data Mining, Penyakit Jantung, Naive Bayes, Particle Swarm Optimization. 
Algoritme Genetika untuk Peningkatan Prediksi Kebutuhan Permintaan Energi Listrik Somantri, Oman; Supriyanto, Catur
Jurnal Nasional Teknik Elektro dan Teknologi Informasi (JNTETI) Vol 5, No 2 (2016)
Publisher : Jurusan Teknik Elektro dan Teknologi Informasi, Fakultas Teknik, Universitas Gadjah Mada

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (988.926 KB) | DOI: 10.22146/jnteti.v5i2.233

Abstract

Predicting the demand of electrical energy with a high degree of accuracy is expected. Application of an appropriate model using exact method will greatly affect the level of accuracy result. Neural Network (NN) and Support Vector Machine (SVM) models are used to predict the needs of electricity demand. Those models have weaknesses. Both are still difficult in determining the value of parameters used, thus, affecting the level of accuracy. Genetic Algorithm (GA) is proposed as a method to optimize the value of NN and SVM parameters in predicting the demand of electrical energy. The result shows that the NN and GA models have a better accuracy than the SVM and GA.
Deteksi Api dengan MultiColorFeatures, Background Subtraction dan Morphology Shidik, Guruh Fajar; Adnan, Fajrian Nur; Pramunendar, Ricardus Anggi; Supriyanto, Catur; Andono, Pulung Nurtantio
Semantik Vol 3, No 1 (2013): Semantik 2013
Publisher : Semantik

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (671.742 KB)

Abstract

Pentingnya  deteksi  api secara dini dapat membantu memberikan peringatan  serta  menghindari bencana yang menyebabkan kerugian ekonomi dan kehilangan nyawa manusia.  Teknik deteksi api dengan sensor konvensional  masih  memiliki keterbatasan, yakni  memerlukan waktu yang cukup lama dalam mendeteksi api pada ruangan yang besar serta tidak dapat bekerja di ruangan terbuka. Penelitian ini mengusulkan metode deteksi  api secara visual yang dapat digunakan pada  camera surveillance dengan  menggunakankombinasi  Multicolorfeatures  sepertiRGB,  HSV,YCbCr  dan  Background Subtraction  serta morphologyuntuk pendeteksian  pergerakan  api.  Evaluasi penelitian  dilakukan dengan menghitung tingkat error deteksi  area api.
Klasifikasi Teks Pesan Spam Menggunakan Algoritma Naïve Bayes Dewi, Ika Novita; Supriyanto, Catur
Semantik Vol 3, No 1 (2013): Semantik 2013
Publisher : Semantik

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (438.438 KB)

Abstract

Intensitas pengiriman teks pesan spam melalui layanan sms semakin meningkat seiring dengan meningkatnya trafik komunikasi. Hal ini bisa meresahkan dan membuat ketidaknyamanan para penerima pesan. Salah satu cara yang bisa terapkan untuk mengatasi pesan spam adalah dengan melakukan filterisasi. Filterisasi diterapkan untuk membedakan pesan yang berisi spam dan pesan yang tidak berisi spam menggunakan teknik klasifikasi teks dengan metode naïve bayes. Naïve bayes efektif diterapkan untuk melakukan klasifikasi data dengan jumlah  yang besar. Hasil eksperimen menunjukkan bahwa Naïve Bayes dalam melakukan klasifikasi teks pesan memiliki nilai akurasi 84.40%, precision 45.76% dan recall 88.09% dengan proses dokumen menggunakan word vector TF-IDF tanpa metode prune.  Penerapan klasifikasi teks menggunakan Naïve Bayes dengan word vector TF-IDF dapat menghasilkan tingkat akurasi yang baik, sehingga dapat diterapkan untuk memfilter pesanyang berisi spam.
Klasifikasi Kualitas Kayu Kelapa Menggunakan Gray-Level Co-Occurrence Martix Berbasis Backpropagation dan Algoritma Genetika Pramunendar, Ricardus Anggi; Supriyanto, Catur
Semantik Vol 4, No 1 (2014): Semantik 2014
Publisher : Semantik

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (3074.742 KB)

Abstract

Indonesia merupakan negara kedua terbesar yang memiliki tanaman pohon kelapa (Cocos nucifera), batang pohon kelapadapat diproses menjadi kayu sebagai bahan pembuat mebel dan konstruksi bangunan. Kualitas kayu kelapa yaitu kekuatandan keawetan ditentukan oleh banyak faktor salah satunya adalah dari pola kerapatan serat (vascular bundle) pada kayukelapa. Saat ini untuk menentukan kualitas kayu kelapa dengan melihat kerapatan serat hanya dapat dilakukan oleh seorangahli dibidangnya. Karena pola pemotongan pada batang kelapa, kayu kelapa dibagi menjadi tiga kelas yang dilihat darikerapatan serat kayu, yaitu kerapatan tinggi, kerapatan sedang dan kerapatan rendah. Untuk menghasilkan produk yang baikdiperlukan penentuan kualitas bahan baku (kayu) yang sesuai dengan kebutuhan.Kata kunci : Kualitas kayu kelapa, GLCM, Backpropagation, Algoritma Genetika
Bag of Visual Words pada Citra Sidik Jari Berbasis Hierarchical Agglomerative Clustering Aditya, Antony Eka; Supriyanto, Catur
Journal of Applied Intelligent System Vol 1, No 1 (2015): Februari 2015 (Hal. 1-69)
Publisher : Fakultas Ilmu Komputer, Universitas Dian Nuswantoro

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pengenalan sidik jari adalah salah satu sifat biometric yang popular digunakan untuk mengenali seseorang. Untuk mengenali identitas seseorang melalui sidik jari, perlu adanya sebuah metode yang tepat dalam melakukan identifikasi. Beberapa teknik diusulkan pada penelitian sebelumnya untuk pengenalan sidik jari. Bag of  visual word ini memerlukan sebuah clustering terhadap beberapa keypoint yang dihasilkan dari sebuah algoritma matching point. Kemudian setelah keypoint dikelompokan, maka keypoint tersebut akan digunakan untuk proses klasifikasi. Penelitian ini hanya bertujuan untuk mengetahui kinerja algoritma clustering dalam pengelompokan keypoint. Hierarchical Agglomerative Clustering dan K-Means dipilih untuk proses clustering tersebut. Dalam penelitian yang dilakukan algoritma K-Means mempunyai kelemahan dalam melakukan evaluasi. Sedangkan algoritma Hierarchical Agglomerative Clustering dalam melakukan evaluasu membutuhkan waktu komputasi klastering yang cukup cepat, namun hasil performa clustering keypoint-nya tidak cukup baik. Kata kunci— Sidik jari, Bag of visual words, Clustering, K-Means, Keypoint, Hierarchical agglomerative clustering.