(paper) Belati: The Traditional Swiss Army Knife for OSINT
1. Belati: The Traditional Swiss Army Knife for OSINT
Oleh Aan ‘Petruknisme’ Wahyu
cacaddv [at] gmail.com
ABSTRAK
OSINT(Open Source Intelligence) merupakan salah satu bidang intelijensi yang mengandalkan
informasi terbuka/publik sebagai sumber utama dalam pengumpulan, pemanfaatan, dan
penyebarluasan untuk kebutuhan intelijensi secara khusus. OSINT bermula dan tercipta pada tahun
1941 oleh Foreign Broadcast Information Service (FBIS) yang digunakan untuk melakukan eksploitasi
ketika terjadi World War II dan berkembang pesat setelah resmi terbentuk oleh Director of Central
Intelligence Directive pada tahun 1994[1][2]
Kata kunci: OSINT, Intelligence, Document Harvesting, Email Harvesting, Belati, FOCA
1. Pendahuluan
Di era modern sekarang, setiap orang dengan sangat mudah melakukan pertukaran informasi,
baik itu secara pribadi ataupun secara umum. Informasi tersebut bisa didapatkan dari berbagai platform
seperti media sosial, website ataupun platform lain yang menyediakan informasi publik terhadap
sesuatu. OSINT berperan dalam proses pengumpulan dan pemanfaatan informasi publik yang tersedia
secara sengaja atau tidak disengaja.
Ketertarikan saya dalam memperdalam OSINT berawal dari sebuah artikel[3]
yang menjelaskan
tentang OSINT dari sudut pandang berbeda, kebetulan saat itu membahas OSINT dari sudut pandang
seorang pelaku kriminal dalam pemanfaatan sebuah informasi publik dari calon korban. Setelah
membaca berbagai sumber bacaan tentang OSINT dan kemudian mencoba berbagai tools OSINT yang
tersedia di GitHub, saya tertarik untuk membuat project tersendiri yang mungkin bisa lebih baik dari
beberapa tools yang saya temukan dan bertujuan sebagai bahan pembelajaran. Terciptalah sebuah
project bernama Belati yang sedang saya garap saat ini, project ini terinspirasi dari beberapa project
yang sudah berjalan diantaranya adalah Foca[4]
dan Datasploit[5]
2. Tujuan Penulisan
Memberikan penjelasan tentang OSINT dan memperkenalkan Belati sebagai salah satu tool
yang bisa digunakan dalam proses OSINT.
3. Landasan Teori
3.1 OSINT
3.1.1 Definisi OSINT
1
2. OSINT(Open Source Intelligence) merupakan salah satu bidang intelijensi yang mengandalkan
informasi terbuka/publik sebagai sumber utama dalam pengumpulan, pemanfaatan, dan
penyebarluasan untuk kebutuhan intelijensi secara khusus. Informasi yang didapatkan melalui proses
tersebut meliputi laporan teknikal dan ekonomi, dokumen negara resmi atau tidak resmi, jurnal ilmiah,
dokumen politik, militer ataupun sipil.
3.1.2 Sekilas Sejarah OSINT
OSINT bermula dan tercipta pada tahun 1941 oleh Foreign Broadcast Information Service
(FBIS) yang digunakan untuk melakukan eksploitasi ketika terjadi World War II dan berkembang pesat
setelah resmi terbentuk oleh Director of Central Intelligence Directive pada tahun 1994.
3.1.3 Kelebihan dan Kekurangan OSINT
Seperti yang sudah dijelaskan sebelumnya, OSINT itu sendiri mempunyai kelebihan dan
kekurangan dalam pengumpulan data.
A. Kelebihan
• Tidak melakukan compromise terhadap sumber yang bersifat sensitif
• Aktifitas pengumpulan data bersifat pasif
• Cakupan data yang luas
• Mudah untuk disebarluaskan(sumber tidak terklarifikasi)
• Informasi cenderung lebih murah(bahkan gratis)
• Pengumpulan data yang lebih aman
B. Kekurangan
• Informasi yang diinginkan mungkin tidak bersifat publik
• Informasi yang didapatkan perlu untuk diverifikasi
• Terlalu banyak informasi yang didapatkan
Keuntungan utama dari OSINT adalah melakukan pengumpulan informasi intelijen secara pasif
yang di mana tidak memerlukan interaksi langsung terhadap target dan berdampak pada risiko yang
ditimbulkan pun relatif sangat kecil sehingga tidak menimbulkan perhatian(baca: attention) terhadap
target selama proses pengumpulan informasi berlangsung. Salah satu keuntungan OSINT lainnya
adalah ketersedian informasi publik yang didapatkan cenderung lebih mudah untuk dibagikan antar
instansi dibandingkan dengan informasi rahasia. Teringat sebuah kutipan tentang OSINT seperti
berikut:
Compared with the more traditional or esoteric intelligence techniques,
it is often faster, more economical, more prolific, or more authoritative.
Herman L. Croom
2
3. 3.1.4 Bidang OSINT
OSINT pun dipergunakan dalam beberapa bidang dalam proses pengumpulan data, diantaranya:
1. Pemerintahan
OSINT pun sudah diterapkan dalam ruang lingkup pemerintahan dalam beberapa negara dengan
aktifitas seperti ‘media monitoring’, ‘media analysis’, ‘survey’ dan beberapa hal lain untuk keperluan
pengumpulan data, yang di mana hal tersebut masih terkategori sebagai open source.
2. Komunitas Intelligence
Dari sejak terciptanya Foreign Broadcast Information Service (FBIS) sampai sekarang, pastinya
sudah banyak komunitas intelligence yang terbentuk dari seluruh penjuru dunia untuk OSINT ini. Salah
satu yang saya ikuti adalah OpenOSINT, komunitas tersebut terdiri dari berbagai macam latar belakang
dan negara keanggotaan yang terfokus pada Threat Intelligence, OSINT, Company Profiling, Personal
Profiling dan hal-hal yang masih keterkaitan dengan Intelligence.
3. Militer
Kebutuhan open source intelligence pada bidang militer terus berkembang. Setiap sumber
informasi publik yang ada, bisa dimanfaatkan untuk antisipasi sebuah ancaman terhadap keamanan
baik pada lokal, nasional ataupun internasional. Informasi yang didapatkan untuk kepentingan operasi
militer berupa strategis ataupun taktis yang berhubungan dengan persenjataan, geo lokasi, pasukan
musuh, populasi warga sipil dari sebuah negara, kemampuan militer dari sebuah negara dan lain-lain.
Untuk lebih lengkapnya bisa membaca paper seperti pada referensi [6][7]
4. Penegakan Hukum( Law Enforcement )
Dengan bantuan internet dan sosial media di zaman sekarang, proses pengumpulan informasi
untuk kebutuhan penegakan hukum akan sangat membantu. Di mana beberapa pelaku kriminal
melakukan perancangan terhadap aksi kriminal melalui berbagai macam platform yang tersedia di
internet dan tak jarang hal tersebut terekspose dalam publik. Pada hal ini, kita harus benar-benar
mengoptimalkan fungsi OSINT dalam proses pengumpulan data terhadap target. Hal tersebut dibahas
dalam buku karangan Andrew Staniforth [8]
5. Dunia Bisnis
Dalam dunia bisnis, OSINT meliputi Commercial Intelligence, Competitor Intelligence, dan
Business Intelligence. Perusahaan/pelaku bisnis seringkali menggunakan information brokers atau
private investigators untuk mengumpulkan dan menganalisis informasi yang relevan sesuai dengan
tujuan bisnis perusahaan tersebut. Hal tersebut meliputi media, produk, ataupun hal-hal lain yang dapat
membantu untuk mengembangkan bisnis tersebut.
3
4. 4. Pembahasan
Pada bagian ini akan menjelaskan bagaimana proses pembuatan, permasalahan yang dihadapi
dan juga pemasangan Belati itu sendiri.
4.1 Perkenalan Belati
Belati merupakan sebuah tool yang dirancang untuk melakukan pengumpulan data dan juga
dokumen yang bersifat publik terhadap website, domain ataupun layanan lain yang nantinya akan
dimanfaatkan untuk kebutuhan OSINT. Nama Belati itu sendiri diambil dari sebuah nama senjata tajam
semacam pisau. Yang di mana menurut saya, penamaan tersebut cocok dengan karakteristik OSINT.
Belati ini terinspirasi dari beberapa project yang sudah berjalan diantaranya adalah Foca dan
Datasploit. Adapun tagline untuk Belati seperti berikut:
Belati - The Traditional Swiss Army Knife For OSINT
4.2 Tujuan Pembuatan Belati
Adapun tujuan pembuatan tool ini adalah sebagai sarana belajar dalam proses memperdalam
bahasa python dan OSINT itu sendiri. Perlu diingat bahwa hal-hal merugikan yang dilakukan dalam
penggunaan Belati tidak berimbas terhadap author.
4.3 Fitur Belati
• Whois(Indonesian TLD Support)
• Banner Grabbing
• Subdomain Enumeration
• Service Scanning for all Subdomain Machine
• Web Appalyzer Support
• DNS mapping / Zone Scanning
• Mail Harvester from Website & Search Engine
• Mail Harvester from MIT PGP Public Key Server
• Scrapping Public Document for Domain from Search Engine
• Fake and Random User Agent ( Prevent from blocking )
• Proxy Support for Harvesting Emails and Documents
• Public Git Finder in domain/subdomain
4
5. • Public SVN Finder in domain/subdomain
• Robot.txt Scraper in domain/subdomain
• Gather Public Company Info & Employee
• SQLite3 Database Support for storing Belati Results
• Setup Wizard/Configuration for Belati
• Django Web Management
• Auto Dependency Checker
• Auto Update System
• Document Metadata/Exif Extractor
• Document Author Metadata
• Graph Visualization( On Progress )
4.4 Kendala/Permasalahan
Tidak bisa dipungkiri bahwa dalam proses pengembangan Belati ini menemui beberapa
kendala/permasalahan pada saat implementasi seperti berikut:
1. Whois Library Untuk Python
Whois Library untuk python yang dipakai oleh Belati belum mendukung untuk domain TLD
*.id, sehingga membutuhkan untuk implementasi dan mendaftarkan whois server agar dapat melakukan
query terhadap domain TLD *.id. Saya meminimalisir penggunaan API dan lebih memilih untuk
menggunakan native library yang bisa diimplementasikan secara langsung di python.
2. Request Terblok oleh Google
Pada saat melakukan crawling data untuk kebutuhan data domain dan lainnya, google akan
melakukan block terhadap request dengan user-agent dan ip. Maka dari itu dibutuhkan fitur untuk
generate random user agent setiap melakukan request dan dukungan terhadap single ataupun random
proxy untuk menghindari block terhadap request. Fitur tersebut sudah diimplementasikan pada versi
0.1.x-dev
3. Legalitas LinkedIn Scrapper
Merujuk pada ToS penggunaan LinkedIn[9]
, pada halaman tersebut menjelaskan pelarangan
pembuatan software/bot untuk melakukan scrapping terhadap data yang ada pada LinkedIn. Seperti
yang dikutip dari Arstechnica[10]
, LinkedIn pun kembali menegaskan bahwa hal tersebut ilegal ketika
melakukan scraping tanpa ada ijin. Hal tersebut menjadikan pertimbangan dalam development fitur
5
6. untuk Belati. Untuk menghindari masalah yang mungkin terjadi dikemudian hari, maka untuk fitur
LinkedIn Scraper kemungkinan tidak akan diimplementasikan.
4. Python Version Library
Beberapa library yang terdapat di Belati masih menggunakan python versi 2.x yang memang
mengharuskan development menggunakan python versi 2.x agar bisa implementasikan fitur sesuai
dengan yang diinginkan. Dibutuhkan waktu untuk melakukan migrasi source code dari python 2.x
menjadi python 3.x. Tapi hal tersebut sudah ada dalam plan development jangka panjang.
5. Penggunaan API Pihak Ketiga
Belati dibuat agar seminimal mungkin dalam menggunakan API pihak ketiga yang
membutuhkan autentikasi. Selama fitur tersebut masih dapat diimplementasikan menggunakan native
python maka hal itu lebih baik. Hal tersebut bertujuan agar memudahkan user dalam penggunaan Belati
yang tidak membutuhkan banyak registrasi service API. Tapi, masih menjadi pertimbangan untuk
implementasikan fitur yang menggunakan API pihak ketiga bila hal tersebut memang tidak ada cara
lain.
4.4 Worst Case Scenario
Dalam proses pembuatan Belati ini, saya pun memikirkan worst case scenario disaat aplikasi
ini digunakan untuk sebuah kepentingan khusus yang mungkin merugikan. Mula-mula Belati akan
melakukan pengumpulan informasi terhadap domain melalui Whois dengan melakukan pengecekan
terhadap kepemilikan sebuah website/domain. Dari informasi yang didapatkan, memungkinkan
terdapat informasi sensitif tentang si pemilik seperti email, nomor telfon, alamat tempat tinggal dan
beberapa informasi sensitif lainnya. Tak jarang sebuah domain mencantumkan informasi tersebut tanpa
adanya whois protector. Kenapa hal tersebut menjadi pertimbangan? Karena, hal kecil tersebut bisa
dimanfaatkan untuk harvesting data dan melakukan profiling terhadap seseorang, teman saya sudah
pernah membahas hal ini pada blog pribadinya tentang Harvesting Whois Data for OSINT[11]
Setelah mendapatkan informasi whois dari sebuah domain, Belati akan melanjutkan dengan
melakukan HTTP Banner Grabbing untuk mendapatkan informasi seputar webserver dan teknologi
yang digunakan oleh website tersebut. Apache? Nginx? Versi? HTTP Security Header? . Mungkin dari
informasi yang didapatkan tersebut bisa dicari public exploit yang tersedia.
Kita tentu ingin tahu berapa banyak jumlah dan apa saja subdomain yang terdaftar untuk
domain tersebut, data itu bisa didapatkan dengan cara harvesting melalui search engine dan service
lainnya atau bisa juga dengan menggunakan DNS Zone Scanning. Belati pun menerapkan DNS Zone
Scanning dengan bantuan plugin yang bernama sublist3r untuk memudahkan dan lebih efisien dalam
pengumpulan data. Ditambah dengan fitur GEO IP untuk setiap subdomain yang terkumpul.
6
7. Setelah terkumpul daftar subdomain yang terdaftar pada domain tersebut, selanjutnya bisa
dilakukan network mapping terhadap domain untuk mengetahui layanan apa saja yang tersedia ataupun
teknologi yang digunakan untuk setiap subdomain. Seperti mail server, version control, development
system, API dan lain-lain. Umumnya informasi tersebut bersifat publik dan bisa diketahui. Tak jarang
bahkan personal, Organisasi, ataupun Perusahaan dengan mudah dilakukan network mapping setelah
mendapatkan informasi subdomain yang terdaftar.
Dari daftar subdomain tersebut, Belati akan melakukan pengecekan terhadap protokol
HTTP/HTTPS yang sedang aktif dan melakukan Web Appalyzer untuk pengumpulan data tentang
service dan plugins apa saja yang digunakan oleh website. Seperti Bootstrap, Apache, Yii dan lain-lain.
Belati pun melakukan pengecekan terhadap Git & SVN Folder untuk setiap subdomain dan domain
yang terkumpul. Pada umumnya, developer tidak memperdulikan folder .git dan .svn dalam sebuah
project. Karena .(dot) biasanya menjadi hidden file/folder dalam sistem operasi *NIX. Padahal, itu
merupakan informasi yang sangat berharga karena seorang attacker bisa melakukan dump dari data
svn/git yang didapatkan menggunakan tool semacam GitDumper[12]
dan alangkah lebih baiknya
memang untuk tidak mengekspos kedua folder tersebut secara publik ataupun memproteksinya agar
tidak dapat diakses dari webserver. Seperti pada artikel yang menjelaskan tentang bagaimana seseorang
mengunduh source code dari daftar 1M Alexa rank yang sudah dianalisis dengan judul “Don't publicly
expose .git or how we downloaded your website's sourcecode - An analysis of Alexa's 1M”[13
].
Tak hanya itu, Belati pun melakukan Nmap scanning atau pun host scanning terhadap alamat IP
yang didapatkan melalui daftar subdomain sebelumnya. Untuk sementara, fitur ini masih belum
berjalan dengan baik karena memang masih menjadi pertimbangan untuk menggunakan nmap atau
menggunakan shodan sebagai sumber utama dari data fitur ini.
Kemungkinan besar setiap website mempunyai email pribadi yang dipergunakan untuk
komunikasi dan sebagai penanda bahwa email tersebut berasal domain tertentu. Misal sebuah
perusahaan ataupun organisasi yang menggunakan domain sebagai alamat email resmi. Belati
melakukan pengumpulan data email melalui mesin pencari seperti Google, Yahoo dan mesin pencari
lainnya. Karena bisa jadi email dari perusahaan, organisasi, ataupun personal pernah ter-index oleh
mesin pencari, entah itu lewat forum ataupun tempat lainnya. Tak lupa, Belati pun melakukan
pengecekan email yang terdaftar di MIT PGP Public Key Server. Untuk memastikan bahwa email
tersebut digunakan untuk pertukaran melalui pgp[14]
.
Dari pengalaman yang saya alami, beberapa website bahkan sekelas website government masih
menyimpan data-data penting di folder website/storage yang memang bersifat publik dan ter-index oleh
Google. Karena itu lah Belati mengadopsi fitur yang diterapkan oleh Foca dalam melakukan harvest
public document. Belati akan melakukan harvest terhadap dokumen publik seperti PDF, DOCX, XLS
yang sebelumnya sudah ter-index di Google. Coba bayangkan bagaimana bila dokumen tersebut adalah
dokumen rahasia? Atau data-data statistik? Atau dokumen perjanjian? Bagaimana bila case itu terjadi?
7
8. 4.5 Pemasangan Belati
Setelah membahas teori pada point sebelumnya, kita akan berlanjut ketahap pemasangan Belati.
Untuk melakukan pemasangan( baca: install) Belati, diperlukan beberapa dependensi python yang
sudah terpasang. Belati sudah mempunyai fitur untuk melakukan pengecekan terhadap dependensi
yang terpasang dan menyarankan dependensi yang belum terpasang untuk dipasang agar bisa
menjalankan Belati. Untuk pemasangan nya sendiri menggunakan perintah:
git clone https://github.com/aancw/Belati.git
cd Belati
git submodule update --init --recursive –remote # checkout submodule
pip install -r requirements.txt #please use pip with python v2
Bila ada pesan missing dependensi seperti pada Gambar 1.0:
8
Gambar 1.0 Missing Dependencies
9. Lakukan instalasi dependensi sesuai petunjuk yang sudah diberikan
pip install --upgrade pip #untuk upgrade pip
pip install -r requirements.txt
Untuk pengguna Fedora/CentOS, diharuskan untuk memasang paket tertentu terlebih dahulu seperti
berikut:
yum install gcc gmp gmp-devel python-devel
Bila semua proses berjalan lancar, maka akan tampil seperti Gambar 1.1 bila kita ingin menampilkan
help pada Belati.
9
Gambar 1.1 Belati Help
10. Dan berikut tampilan awal dari Belati terlihat pada Gambar 1.2
Perlu diketahui bahwa Belati sudah mendukung untuk fitur auto update, jadi pengguna tidak
perlu repot mengunduh ulang saat ada pembaruan di repositori, cukup dengan menjalankan Belati maka
akan otomatis melakukan pengecekan terlebih dahulu versi yang berada dilokal dengan remote.
Disarankan untuk menggunakan proxy pada saat menjalankan Belati. Bisa menggunakan proxychains
ataupun built-in proxy yang sudah didukung oleh Belati dengan menggunakan parameter –single-proxy
/ --proxy-file / --auto-proxy .
10
Gambar 1.2 Tampilan Utama Belati
11. 4.6 Belati In Action
Sebagai bahan uji coba, saya akan melakukan pengumpulan data dengan menggunakan Belati
terhadap RNDC( Indonesian Research and Development Center) - http://rndc.or.id dan juga Adobe Inc
sebagai contoh parameter company. Perlu diketahui bahwa apa yang akan saya lakukan terhadap
RNDC sudah mendapatkan persetujuan agar digunakan dalam tulisan ini. Saya coba menjalankan
Belati dengan perintah:
python2 Belati.py -d rndc.or.id -c "Adobe Inc"
Selanjutnya akan dijelaskan dengan gambar.
Bila pengguna menggunakan Belati untuk pertama kali, maka Belati akan menanyakan
konfigurasi yang dibutuhkan seperti Gambar 1.3. Untuk sementara ini hanya ada konfigurasi python
binary untuk menjalankan Django web server. Selanjutnya Belati akan melakukan pengecekan terhadap
pembaruan dan membuat project baru seperti pada Gambar 1.4
11
Gambar 1.3 Belati Config
12. Karena versi Belati yang saya pakai sudah uptodate, Belati akan langsung membuatkan project
baru. Seperti yang sudah dijelaskan sebelumnya, Belati akan melakukan pengumpulan data melalui
whois dan juga melakukan HTTP Banner Grabbing seperti pada Gambar 1.5
12
Gambar 1.4 Belati Update & Create Project
13. Pada Gambar 1.5 terlihat bahwa domain tersebut didaftarkan oleh Maxindo Content Solution
dengan alamat dan nomor telfon seperti yang tertera pada gambar dan lengkap dengan name server apa
yang sedang digunakan oleh domain tersebut. Dari HTTP Banner Grabbing kita mendapatkan
informasi bahwa server tersebut menggunakan Apache/2.4.25 sebagai web server dan PHP/5.3.29
beserta informasi http header lainnya. Selanjutnya akan melakukan enumeration terhadap subdomain
yang terdaftar pada domain seperti Gambar 1.6
13
Gambar 1.5 Whois & HTTP Banner Grabbing
14. Belati melakukan enumeration terhadap subdomain dengan bantuan plugin sublist3r yang
mengumpulkan data dari berbagai service seperti DNSdumpster, PassiveDNS dan lain-lain. Daftar
subdomain ini yang nanti akan digunakan pada tahap selanjutnya seperti Gambar 1.7
14
Gambar 1.6 Subdomain Enumeration
15. Belati melakukan Wappalyzing terhadap setiap subdomain yang terdaftar dan juga tak lupa
melakukan pengecekan terhadap SVN & Git repositori folder untuk memastikan apakah subdomain
tersebut terdapat version control yang bisa menyebabkan pengunduhan source code dari sebuah
aplikasi/website. Lalu melakukan query terhadap DNS server untuk mengetahui NS & MX Server
seperti yang terlihat pada Gambar 1.7. Selanjutnya, Belati akan melakukan email Harvesting dari
Google dan PGP server terhadap domain tersebut.
15
Gambar 1.7 Wappalyzing, SVN, Git Checker
Gambar 1.8 Email Harvesting
16. Setelah kita mendapatkan daftar email dari mesin pencari yang sudah melakukan index pada
halaman situs lain, misalnya pencarian lowongan pekerjaan atau situs diskusi dan juga PGP server.
Selanjutnya, Belati akan melakukan pencarian publik dokumen yang terdapat pada server domain
tersebut yang sebelumnya sudah terindex oleh mesin pencari, hal ini terinspirasi dari fitur yang dimiliki
oleh Foca.
Seperti yang terlihat pada Gambar 1.9, Belati melakukan query terhadap mesin pencari untuk
mengumpulkan tautan dokumen publik pada sebuah domain. Belati hanya melakukan pencarian
terhadap berkas PDF, XLS, DOC, ODT, PPT, RTF, TXT dikarenakan berkas tersebut kemungkinan
berkas penting dan jua dibekali dengan random fake user agent dan proxy untuk meminimalisir
terblokir oleh mesin pencari.
16
Gambar 1.9 Harvesting Public Document
17. Nah, untuk mencakup kedalam company profiling atau gathering, pada masa development ini
Belati akan menggunakan mesin pencari dan juga LinkedIn sebagai sarana informasi seperti karyawan
yang sedang bekerja sekarang dan lain-lain. Tidak menutup kemungkinan nantinya akan dikembangkan
dengan cakupan yang lebih luas dalam pencarian informasi ini. Setelah semua proses selesai, Belati
menyimpan log, berkas yang terunduh dan menjalan web server agar dapat dilihat hasil yang
didapatkan seperti Gambar 2.1
17
Gambar 2.0 Gather Company Employee
Gambar 2.1 Starting Web Server
18. Setelah webserver telah berjalan, kita bisa melihat langsung hasil dari Belati dengan mengakses
halaman http://127.0.0.1:800/ seperti yang terlihat pada Gambar 2.2
Pada halaman awal Belati akan menampilkan daftar project yang sudah terbuat sebelumnya
lengkap dengan waktu pembuatan. Web ini dibangun dengan framework Django yang memang masih
menggunakan bahasa python sehingga terintegrasi dengan Belati itu sendiri. Untuk melihat data &
informasi yang sudah terkumpul selama proses menjalankan Belati, cukup dengan klik tombol View
seperti Gambar 2.3.
18
Gambar 2.2 Halaman Awal Belati
19. Belati akan menampilkan informasi terkait project yang sudah dikumpulkan sebelumnya.
Informasi tersebut dikelompokkan dengan masing-masing tab sesuai dengan kebutuhan. Ada tab
Projects, Domain Result, Subdomain, Mail Harvest, Documents, LinkedIn etc yang bisa pengguna lihat
sendiri disaat menjalankan Belati. Bisa dilihat hasil informasi dokumen yang telah terunduh pada saat
Belati berlangsung seperti Gambar 2.4
19
Gambar 2.3 View Belati Project
Gambar 2.4 Hasil Public Document
20. Seperti yang terlihat pada Gambar 2.4 menunjukkan url lengkap dari sebuah dokumen yang
terunduh dan juga direktori berkas tersebut disimpan. Nantinya, pengguna dapat melihat dokumen yang
sudah terunduh secara langsung lewat peramban. Untuk saat ini, fitur tersebut sedang dalam proses
pengerjaan yang nantinya pun bersamaan dengan pengumpulan informasi berdasarkan metadata dari
sebuah dokumen. Ada pun fitur yang sedang dikerjakan untuk Belati ini bisa dilihat pada laman[15]
GitHub.
5. Kesimpulan
Setelah mengetahui seluk beluk tentang OSINT, kita jadi tahu bagaimana sebuah data yang
sederhana dan mungkin dianggap tidak berguna bisa dimanfaatkan untuk kebutuhan khusus. Belati
diperuntukkan untuk automatisasi kebutuhan pengumpulan informasi sebagai sarana OSINT. Dengan
menggunakan Belati, pengguna dapat melakukan audit terhadap informasi/data publik yang dimiliki.
Seperti yang sudah dijelaskan pada Worst Case Scenario bahwa sebuah data yang kecil pun bisa
dimanfaatkan untuk kebutuhan khusus yang berdampak negatif dan hal tersebut sangatlah fatal. Sudah
seharusnya kita lebih berhati-hati terhadap data sensitif yang kita bagikan secara sengaja ataupun tidak
sengaja secara terbuka yang nantinya bisa dimanfaatkan oleh orang yang berkepentingan.
Jadi, sudah amankah data/informasi Anda?
20
21. Referensi
1. NATO. NATO Open Source Intelligence Reader, February 2002.
2. https://en.wikipedia.org/wiki/Open-source_intelligence
3. https://www.tripwire.com/state-of-security/security-awareness/burgling-from-an-osint-point-of-view/
4. https://www.elevenpaths.com/labstools/foca/index.html
5. https://github.com/upgoingstar/datasploit
6. Robert D. Steele, Open Source Intelligence: What Is It? Why Is It Important to the Military?
7. Robert D. Steele, The Importance of Open Source Intelligence To The Military
8. Andrew Staniforth, Police Use of Open Source Intelligence: The Longer Arm of Law
9. https://www.linkedin.com/legal/user-agreement
10. https://arstechnica.com/tech-policy/2017/07/linkedin-its-illegal-to-scrape-our-website-without-permission/
11. https://webbreacher.com/2016/08/09/harvesting-whois-data-for-osint/
12. https://github.com/internetwache/GitTools
13. https://en.internetwache.org/dont-publicly-expose-git-or-how-we-downloaded-your-websites-sourcecode-an-
analysis-of-alexas-1m-28-07-2015/
14. https://www.quora.com/Network-Security-What-is-PGP
15. https://github.com/aancw/Belati/issues/12
21