Kita sudah tahu bahwa Large Hadron Collider (LHC) akan menjadi eksperimen fisika terbesar dan termahal yang pernah dilakukan oleh umat manusia. Bertabrakan partikel relativistik pada energi yang sebelumnya tidak terbayangkan (hingga 14 TeV pada akhir dekade) akan menghasilkan jutaan partikel (diketahui dan belum ditemukan), yang perlu dilacak dan ditandai oleh detektor partikel besar. Eksperimen bersejarah ini akan membutuhkan upaya pengumpulan dan penyimpanan data besar-besaran, menulis ulang aturan penanganan data. Setiap lima detik, tabrakan LHC akan menghasilkan data setara DVD, yaitu tingkat produksi data satu gigabyte per detik. Untuk menempatkan ini dalam perspektif, komputer rumah tangga biasa dengan koneksi yang sangat baik mungkin dapat mengunduh data dengan kecepatan satu atau dua megabyte per detik (jika Anda sangat beruntung! Saya mendapat 500 kilobyte / detik). Jadi, para insinyur LHC telah merancang metode penanganan data jenis baru yang dapat menyimpan dan mendistribusikan petabyte (juta-gigabytes) data ke kolaborator LHC di seluruh dunia (tanpa menjadi tua dan abu-abu saat menunggu unduhan).
Pada tahun 1990, Organisasi Eropa untuk Riset Nuklir (CERN) merevolusi cara kita hidup. Tahun sebelumnya, Tim Berners-Lee, seorang fisikawan CERN, menulis proposal untuk manajemen informasi elektronik. Dia mengemukakan gagasan bahwa informasi dapat ditransfer dengan mudah melalui Internet menggunakan sesuatu yang disebut "hypertext." Seiring berjalannya waktu Berners-Lee dan kolaborator Robert Cailliau, seorang insinyur sistem juga di CERN, menyatukan jaringan informasi tunggal untuk membantu para ilmuwan CERN berkolaborasi dan berbagi informasi dari komputer pribadi mereka tanpa harus menyimpannya di perangkat penyimpanan yang rumit. Hypertext memungkinkan pengguna untuk menelusuri dan berbagi teks melalui halaman web menggunakan hyperlink. Berners-Lee kemudian membuat browser-editor dan segera menyadari bentuk komunikasi baru ini dapat dibagikan oleh banyak orang. Pada Mei 1990, para ilmuwan CERN menyebut jaringan kolaboratif baru ini World Wide Web. Faktanya, CERN bertanggung jawab atas situs web pertama di dunia: http://info.cern.ch/ dan contoh awal dari apa yang tampak seperti situs ini dapat ditemukan melalui situs web World Wide Web Consortium.
Jadi CERN tidak asing dengan mengelola data melalui Internet, tetapi LHC yang baru akan membutuhkan perawatan khusus. Seperti yang disorot oleh David Bader, direktur eksekutif komputasi kinerja tinggi di Institut Teknologi Georgia, bandwidth saat ini yang diizinkan oleh Internet adalah hambatan besar, membuat bentuk lain dari berbagi data lebih diinginkan. “Jika saya melihat LHC dan apa yang dilakukannya di masa depan, satu hal yang tidak dapat dilakukan Web adalah mengelola kekayaan data yang luar biasa., ”Katanya, yang berarti lebih mudah untuk menyimpan kumpulan data besar pada hard drive terabyte dan kemudian mengirimkannya di pos ke kolaborator. Meskipun CERN telah membahas sifat kolaboratif berbagi data di World Wide Web, data yang akan dihasilkan LHC akan dengan mudah membebani bandwidth kecil yang saat ini tersedia.
Inilah sebabnya mengapa LHC Computing Grid dirancang. Grid menangani produksi dataset LHC yang luas dalam tingkatan, yang pertama (Tingkat 0) terletak di tempat di CERN dekat Jenewa, Swiss. Tier 0 terdiri dari jaringan komputer paralel besar yang berisi 100.000 CPU canggih yang telah diatur untuk segera menyimpan dan mengelola data mentah (kode biner 1s dan 0s) yang dipompa oleh LHC. Perlu dicatat pada titik ini, bahwa tidak semua tabrakan partikel akan terdeteksi oleh sensor, hanya sebagian kecil yang dapat ditangkap. Meskipun hanya sejumlah kecil partikel yang dapat dideteksi, ini masih menghasilkan output yang sangat besar.
Tier 0 mengelola bagian dari data yang dihasilkan dengan meledakkannya melalui jalur serat optik berdedikasi 10 gigabit per detik hingga 11 Tingkat 1 situs di seluruh Amerika Utara, Asia dan Eropa. Ini memungkinkan kolaborator seperti Relativistic Heavy Ion Collider (RHIC) di Brookhaven National Laboratory di New York untuk menganalisis data dari percobaan ALICE, membandingkan hasil dari tumbukan ion timah LHC dengan hasil tumbukan ion berat mereka sendiri.
Dari komputer internasional Tier 1, kumpulan data dikemas dan dikirim ke 140 Tingkat 2 jaringan komputer terletak di universitas, laboratorium dan perusahaan swasta di seluruh dunia. Pada titik inilah para ilmuwan akan memiliki akses ke dataset untuk melakukan konversi dari kode biner mentah menjadi informasi yang dapat digunakan tentang energi dan lintasan partikel.
Sistem tingkat semua baik dan bagus, tetapi tidak akan bekerja tanpa jenis perangkat lunak yang sangat efisien yang disebut "middleware." Saat mencoba mengakses data, pengguna mungkin menginginkan informasi yang tersebar di seluruh petabyte data di server yang berbeda dalam format yang berbeda. Platform middleware open-source bernama Globus akan memiliki tanggung jawab besar untuk mengumpulkan informasi yang diperlukan dengan lancar seolah-olah informasi itu sudah ada di dalam komputer peneliti.
Kombinasi sistem tier, koneksi cepat, dan perangkat lunak yang cerdik ini dapat diperluas di luar proyek LHC. Di dunia di mana segala sesuatu menjadi "sesuai permintaan," teknologi semacam ini bisa membuat Internet transparan kepada pengguna akhir. Akan ada akses instan ke segala sesuatu mulai dari data yang dihasilkan oleh eksperimen di sisi lain planet ini, hingga menonton film definisi tinggi tanpa menunggu bilah kemajuan unduhan. Sama seperti penemuan Berners-Lee tentang HTML, LHC Computing Grid dapat merevolusi cara kita menggunakan Internet.
Sumber: Scientific American, CERN