Great Experience of Solid State Drive (SSD)

Akhirnya, setelah sekian lama, saya berkesempatan untuk upgrade harddisk ThinkPad x200s saya menjadi Solid State Drive (SSD). Sudah lama saya memimpikan untuk upgrade ke SSD ini. Ada keunggulan yang jauh lebih besar yang ditawarkan oleh SSD.

Gampangnya SSD adalah suatu sistem penyimpanan seperti HDD konvensional tetapi tidak memiliki piringan sebagai media penyimpanannya. SSD menggunakan chip-chip semikonduktor untuk menyimpan data seperti halnya dalam FDD atau Flash Memory. Dengan tidak adanya piringan yang bergerak, SSD memiliki berbagai keunggulan.

Sampai sekarang saya masih excited dengan peningkatan performa dalam kecepatan akses, kecepatan booting dan shutdown, kecepatan buka tutup aplikasi dan it’s feel great. Sebagai gambaran, dalam tes kecepatan booting dan shotdown, saya menggunakan ubuntu, biasanya ketika loading startup waktu booting ada looping yang sambil memunculkan logo ubuntu membutuhkan waktu 10 kali looping dengan waktu beberapa belas detik, dengan ssd cukup seper sekian detik. Ketika membuka aplikasi, saya mencoba buka berbagai jenis office dan explorer beberapa window cukup dengan beberapa detik saja sudah tebuka semua hampir tanpa merasakan loading.

Gambaran secara visualnya sudah banyak tersedia di Youtube, salah satunya video dibawah ini:

 

Ingin mengindex semua informasi dokumen

Tiba-tiba saya penasaran, bagaimana caranya mengindex semua informasi yang disimpan dalam sebuah storage. Digital storage…

Dalam sebuah lembaga, ada bagian-bagian yang saling terpisah antara satu dengan yang lain. Tiap-tiap bagian bisa menghasilkan dokumen sendiri-sendiri yang disimpan dalam storage terintegrasi. Dokumen itu berupa file-file yang berupa text, gambar, video, software, dll.

Yang membuat saya penasaran adalah bagaimana memanfaatkan dokumen-dokumen tersebut untuk keperluan lembaga/organisasi secara keseluruhan. Bagaimana mencari dan mengelompokkan dokumen tersebut dengan singkat, padat, dan cepat, lebih cepat dari rate bertambahnya jumlah dan jenis dokumen. Bagaimana data tersebut bisa dimanfaatkan untuk keperluan capacity building.

Mungkin idenya seperti google, tapi yang diindex adalah data private yang tersimpan dalam storage organisasi atau lembaga tertentu.

Apa ini bisa dilakukan dengan konsep “Big Data” ya? dengan metode MapReduce dan framework hadoop-nya? hmmm…. mari kita cari tahu…:)

Antara Astronomi Radio dan Big Data?

Pengamatan radio frekuensi rendah akan terus dilakukan di observatorium bosscha. Peralatan penerima radio terus diuji coba. Data pengamatan terus dikumpulkan. Data interferensi akan terus dicatat. Pesan-pesan dari matahari dan jupiter akan terus kita ‘dengarkan’.

Saya menyadari, data pengamatan model seperti ini akan terus bertambah dan berevolusi terus baik bentuk, maupun jumlahnya. Perlu dilakukan penanganan data yang baik dan sesuai agar data pengamatan yang telah dilakukan bisa diambil insight atau penemuan pengetahuan dari data yang telah terkumpul.

Karena data yan didapat dari sensor seperti ini atau dari peralatan yang ‘unik’, maka management datanya juga akan unik. Mungkin penanganan data menggunakan metode basis data relasional akan membutuhkan banyak ‘penyesuaian’. Sementara data akan terus berevolusi. Dari sini saya mulai ‘melihat’ big data. Suatu metode dan teknologi atau pendekatan baru dalam menangani data yang tidak terstrukture . Bisa juga untuk data yang terstrukture atau gabungan dari keduanya.

Terus tarang saya belum punya gambaran detail tentang apa dan bagaimana big data ini bisa berperan. Tapi saya melihat bahwa ‘big data’ adalah salah satu future approaches.

Continue reading “Antara Astronomi Radio dan Big Data?”

Mencoba Sphider PHP Search Engine

Kemarin saya menemukan search engine yang dibuat menggunakan bahasa php dan database MySQL. search engine ini digunakan untuk meng-index website yang kita definisikan dan dia akan meng-index halaman-halaman website yang telah kita definisikan sebelumnya. Halaman yang diindex berdasarkan link dan title yang ada dari halaman-halaman tersebut.

Indexing-nya ditrigger dengan cara manual oleh admin, jadi admin harus melakukan indexing secara periodik agar informasi up to date. Jika kita memiliki akses terhadap cron job, mungkin bisa dilakukan indexing secara otomatis dengan periode tertentu juga.

Sistem juga memiliki record tentang keyword yang pernah dicari oleh pengunjung. Dengan record ini kita juga bisa memantau kata kunci apa yang paling sering dicari. Dengan begitu kita bisa mendapat masukan untuk kebijakan pengembangan yang akan datang.

Setelah mencobanya, saya cukup terkesan dengan aplikasi ini. search engine ini memiliki feel dan tampilan mirip google tapi dengan view dan sistem yang lebih sederhana atau mirip google zaman dulu. Orang bisa mengetikkan kata kunci pada search box dan sistem bisa memberikan sugesti kata yang sering dicari atau yang ada dalam index sistem.

Awalnya saya ingin membuat search engine sendiri untuk mencari dokumen yang ada dalam website, namun ketika saya menggunakan search engine google untuk mencari referensi tentang search engine, saya menemukan search engine sphider ini. Dan saya pikir untuk kebutuhan saat ini sudah mencukupi menggunakan search engine ini. Untuk menghormati dan menghargai jerih payah tenaga, waktu, dan pikiran pengembang, tentu tidak enak jika menggunakannya secara cuma-cuma. Juga sebagai rasa terima kasih, saya ikut memberikan kontribusi donasi, walaupun jumlahnya mungkin sangat kecil sekali.

Setelah mencoba mencari tau pengembangnya, ternyata dia seorang Phd yang sudah bekerja di skype Lab. wah, luar biasa..! :). Publikasi ilmiahnya juga lumayan banyak, terutama berkaitan dengan machine learning dan artificial intelligent.

mari kita eksplore lagi…! 🙂

Big Data???

Ya, apa itu big data…???

Beberapa hari terakhir ini, dunia saya sedikit teralihkan dengan term big data ini. Apa sih big data ini?. sepertinya isu big data mulai diungkapkan ke permukaan semenjak orang sadar kalau kita kebanjiran data. apalagi sejak 2.0 mulai menjalar kemana-mana.

saya melihat film dokumenter di youtube, BBC Horizon 2013 The Age of Big Data, dimana data secara massive di-‘create’ baik oleh individu maupun lembaga. Salah satu lembaga yang akan berkontribusi adalah lembaga di bidang astronomi (dan tentu lembaga sains yang lain).

Dengan dibangunnya fasilitas-fasilitas survey langit seperti LSST (Large Synoptic Sky Survey) yang akan menghasilkan data kira-kira sampai 30 TB per malam, atau SKA ( Square Kilometer Array), sebuah system pengamatan teleskop radio rame-rame secara serentak, yang pasti juga menghasilkan data yang tidak main-main setiap malam.

SKA (Square Kilometer Array), system teleskop radio rame-rame yang digunakan untuk mengamati langit secara serentak bersama-sama. Image Credit: SPDO/Swinburne Astronomy Productions, Sumber: http://astrocompute.wordpress.com

Era media social seperti sekarang ini, setiap orang bisa menghasilkan data. Sejak bangun tidur sampai tidur lagi orang bisa menghasilkan data. Bangun tidur cek socmed, update socmed. Saat tidur-pun gadget terus mengupdate data.

Bagaimana pegelola mengelola data tersebut?. Bagaimana data tersebut disimpan dan bagaimana memanfaatkan data-data tersebut.

Sepertinya big data juga akan melanda sektor climate change. Sebagaimana kita tahu bahwa perubahan iklim tidak lepas dari data-data lingkungan. Data iklim dan data kondisi bumi dan sekitarnya. Bagaimana mengelola data ini sehingga menyebabkan kebermanfaatan data yang lebih luas. Bagaimana agar masyarakat luas bisa mendapat manfaat dari data iklim ini.

Ada juga apache hadoop, sebuah framework untuk mengelola data. ada juga HDFS, Hadoop Disrtibuted File System. Seperti apa semua system ini?

Jadi, apa itu big data? apakah kita terkena imbas oleh big data?… hmmm….