1. Medote IR
a)
Metode
Boolean : Merupakan Model IR Sederhana yang berdasarkan atas teori himpunan
dan aljabar boolean
b)
Model
Vector Space : Merupakan Model IR yang mempresentasikan dokumen dan query
dalam bentuk vector dimensional
c)
Model
Probabilistic : Merupakan Model IR yang menggunakan Framework probabilistic
2. Perbedaan dan Cara kerja Precision dan
Recall :
Precision dapat diartikan
sebagai kepersisan atau kecocokan (antara permintaan informasi dengan jawaban
terhadap permintaan itu). Jika seseorang mencari informasi di sebuah sistem,
dan sistem menawarkan beberapa dokumen, maka kepersisan ini sebenarnya juga
adalah relevansi. Artinya, seberapa persis atau cocok dokumen tersebut untuk
keperluan pencari informasi, bergantung pada seberapa relevan dokumen tersebut
bagi si pencari.
Recall adalah proporsi
jumlah dokumen yang dapat ditemukan-kembali oleh sebuah proses pencarian di
sistem IR. Rumusnya: Jumlah dokumen relevan yang ditemukan / Jumlah semua
dokumen relevan di dalam koleksi. Lalu, precision adalah
proporsi jumlah dokumen yang ditemukan dan dianggap relevan untuk kebutuhan si
pencari informasi. Rumusnya: Jumlah dokumen relevan yang ditemukan / Jumlah
semua dokumen yang ditemukan.
Contoh :
Jika ada 100 judul
buku di dalam sebuah sistem perpustakaan lalu user ingin mencari buku dengan
judul “Information Retrieval”, Ternyata sistem berhasil menemukan 30 buku yang
mengandung judul “Information Retrieval”
Maka nilai
recall-nya adalaha (30%) dan Precision-nya juga (30%)
Relevan
|
Tidak Relevan
|
Total
|
|
Ditemukan
|
a (hits)
|
b (noise)
|
a + b
|
Tidak ditemukan
|
c (misses)
|
d (rejected)
|
c + d
|
Total
|
a+b
|
c+d
|
a+b+c+d
|
Lalu,
berdasarkan tabel tersebut, rumus recall – precision pun menjadi:
Recall=[a/(a+c)]x100
Precision = [a/ (a+b)] x 100
Precision = [a/ (a+b)] x 100
3. web crawler adalah Program yang
dapat mengambil sebagian besar halaman Web dengan menelusuri World Wide
Web(www) dengan cepat.Kemudian menyimpannya ke dalam suatu tempat penyimpanan
lokal dan mengindeksnya berdasar sejumlah kata kunci yang ada.
Jika ada 6 Halaman Website misal (Home,
Materi, Profile, dll) dalam sebuah halaman website, maka program web
crawler akan mengambil dan menyimpan pertama kali file adalah dile indeks.html
atau biasanya halaman pertama pada sebuah website. Program akan mengekstraknya
lalu mengambil semua url dari halaman yang ada di halaman pertama
atau home page tersebut. Selanjutnya url-url yang didapat akan
kembali ditelusuri dan didownload seperti di langkah awal. Sehingga otomatis
home page lainnya seperti Halaman Materi,Halaman Profile,dll akan
ditelusuri dan terdownload.

Tidak ada komentar:
Posting Komentar