Web Mining - adalah aplikasi dari data mining teknik untuk menemukan pola dari Web . Menurut analisis target, web mining dapat dibagi menjadi tiga jenis, yaitu web usage mining, Web content mining dan Web structure mining.
Data mining (DM) yang juga dikenal sebagai Knowledge Discovery (Frawley et al., 1992) , merupakan salah satu bidang yang berkembang pesat karena besarnya kebutuhan akan nilai tambah dari database skala besar yang makin banyak terakumulasi sejalan dengan pertumbuhan teknologi informasi. Secara umum, data mining dapat didefinisikan sebagai suatu rangkaian proses untuk menggali nilai tambah berupa ilmu pengetahuan yang selama ini tidak diketahui secara manual dari suatu kumpulan data (Pramudiono, 2003).
Web mining merupakan penerapan teknik data mining terhadap web dengan tujuan untuk memperoleh pengetahuan dan informasi lebih dari dalam web.Web mining dapat dikategorikan ke dalam tiga ruang lingkup yang berbeda, yaitu web content mining, web structure mining dan web usage mining (Srivastavaet al., 2000).
Association Rules dan Algoritma Apriori
Association rules merupakan salah satu teknik data mining yang berfungsi untuk menemukan asosiasi antar variabel, korelasi atau suatu struktur diantaraitem atau objek-objek didalam database transaksi, database relasional, maupun pada penyimpanan informasi lainnya.
Sebagai ilustrasi dalam analisis weblog dari association rules adalah sebagai berikut, pola yang mungkin adalah “jika seseorang mengunjungi websiteCNN, terdapat kemungkinan sebesar 60% orang tersebut mengunjungi website Detik pada bulan yang sama.” Pada ilustrasi tersebut, pola yang ditemukan berpotensi menghasilkan potongan informasi yang menarik dan dibutuhkan oleh perusahaan yang terkait.
Proses di dalam teknik assocation rules adalah mencari aturan-aturan yang memenuhi minimum support dan confidence. Algoritma yang pertama kali digunakan dalam teknik association rules dan yang paling banyak digunakan adalah algoritma apriori (Agrawal & Srikant, 1994).
Web Crawler
Web crawler (yang juga dikenal dengan web spider atau web robot) adalah suatu program atau script otomatis yang menjelajahi WWW dengan menggunakan sebuah metode atau cara yang otomatis. Nama-nama yang jarang digunakan pada sebuah web crawler adalah ants, automatic indexers, bots, worms(Kobayashi & Takeda, 2000).
Extended Log File Format
Extended Log Format dirancang untuk memenuhi beberapa kebutuhan di bawah ini (Baker & Behlendorf, 1996):
- Memperbolehkan kontrol pada data yang direkam.
- Memenuhi kebutuhan proxy, client dan server dalam format yang umum.
- Menyediakan penanganan yang sempurna akan masalah penghilangan karakter.
- Memperbolehkan dalam pertukaran demografis data.
- Memperbolehkan dalam menyajikan rekapitulasi data.
SUMBER :
Free Template Blogger collection template Hot Deals SEO
1 komentar:
Terkait postingan di atas dapat jga di lihat link di bawah ini :
http://repository.gunadarma.ac.id/bitstream/123456789/2635/1/Ekon-16.pdf
Posting Komentar