selamat datang di blog dhenyxconfused, enjoy reading ^^

Senin, 16 Juni 2014

Quantum Computation

quantum computing (komputer kuantum) adalah sebuah alat untuk perhitungan, dimana penghitungan ini menggunakan langsung fenomena kuantum mekanik, dan perhitungan ini seperti superposisi dan belitan. untuk melakukan operasi pada data, Quantum komputer berbeda dari komputer tradisional yang didasarkan pada transistor. Prinsip dasar di balik perhitungan kuantum adalah bahwa sifat kuantum dapat digunakan untuk mewakili data dan melakukan operasi pada data.


Perbedaan komputer klasik dengan komputer quantum      

      Pada sebuah komputer klasik memiliki memori terdiri dari bit, dimana tiap bit mewakili salah satu atau nol. Sebuah komputer kuantum mempertahankan urutan qubit. Sebuah qubit tunggal dapat mewakili satu, nol, atau, krusial.

    Sebuah contoh dari implementasi qubit untuk komputer kuantum bisa mulai dengan menggunakan partikel dengan dua negara spin: "down" dan "up" (biasanya ditulis | {\ downarrow} \ rangle dan | {\ uparrow} \ rangle, atau | 0 {\ rangle} dan | 1 {\ rangle}). Namun pada kenyataannya sistem apapun yang memiliki Z kuantitas diamati yang disimpan dalam evolusi waktu dan seperti yang Z memiliki setidaknya dua diskrit dan cukup spasi eigenvalues ​​berturut-turut, merupakan kandidat yang cocok untuk melaksanakan suatu qubit. Hal ini benar karena setiap sistem tersebut dapat dipetakan ke sistem spin-1 / 2 efektif.




Perkembangan
       Setiap Computing apapun pasti mempunyai model yang penting, begitu juga dengan quantum coomputing. quantum computing mempunyai Empat model utama yang penting dan praktis, dianataranya adalah:


Quantum Bit 

Pada komputasi quantum, ada keterhubungan dengan biner.  Pada pc dan komputasi quantum sama-sama menggunakan bahasa komputer yang disebut biner. Biner adalah basis 2 dalam bahasa matematika karena hanya terdiri dari dua digit, yaitu 1 dan 0. Dalam komputasi kuantum unit dasar dari informasi adalah qubit (quantum bit). Qubit membentuk dasar dari komputasi kuantum. Qubit dalam komputasi quantum berbeda dari biner yang biasa di gunakan pada pc lama. Misalkan, Dalam komputer klasik mengatakan memiliki dua bit. Kedua bit bisa terdiri dari satu dari kombinasi berikut: 00/01/10/11. Dalam komputasi kuantum, dua qubit juga dapat terdiri dari satu dari keempat kombinasi tersebut di atas yang disebut state bagian dasar komputasi. Sementara sepasang klasik bit dapat menyimpan nomor ini hanya satu per satu, sepasang qubit juga bisa eksis dalam superposisi dari dasar empat state atau antara 0 dan 1. Ini berarti bahwa sepasang qubit secara simultan dapat terdiri dari semua empat state yang mungkin atau kombinasi (00, 01, 10, 11). Dengan demikian, qubit dapat berisi sejumlah besar informasi dan hasil ini dalam komputer kuantum yang secara eksponensial lebih kuat daripada komputer klasik (non-kuantum). Ada empat perangkat kontrol yang dapat digunakan untuk membuat qubit:
  • Perangkap ion
  • Titik-titik kuantum
  • Semiconductor impurities
  • Sirkuit superkonduktor
 Pengoperasian Data Qubits
 
Pengoperasian pada Data Qubits adalah dengan kedua nilai yang disimpan pada setiap qubit akan selalu mempengaruhi operasi komputer kuantum. Selain itu, sebuah n qubits sama-sama ber-superposisi dari 0 dan 1, dia berperan untuk mengkodekan 2n nilai. Komputer kuantum dapat menghitung nilai keseluruhannya sekaligus. Keadaan paralel ini memiliki istilah Paralelisme Kuantum. Setiap rangkaian yang tercipta selalu memiliki rangkaian kuantum yang sesuai. Jadi dapat disimpulkan bahwa teknologi yang diterapkan pada komputer kuantum mampu melakukan perhitungan pada semua nilai pada waktu yang hampir sama, dengan waktu yang sama komputer konvensional hanya bisa melakukan perhitungan tunggal.



Quantum Gates
  Dalam kuantum komputer dan khususnya model rangkaian kuantum perhitungan, sebuah quantum gates atau quantum logic gates adalah dasar kuantum sirkuit operasi pada sejumlah kecil qubit. Mereka adalah blok bangunan sirkuit kuantum, seperti logic gates klasik untuk sirkuit digital konvensional.

 Algoritma Shor
 
Bentuk Algoritma Shor yang sederhana adalah mem-faktorkan bilangan 15, dimana untuk melakukannya dibutuhkan komputer kuantum 7 quabit. 7 quabit ini digambarkan oleh para ahli kimia dengan menciptakan 7 putaran nukleus. Nukleus ini terdiri dari 5 atom fluorin dan 2 atom karbon yang dapat berinteraksi satu dengan yang lain sebagai qubit.. Kedua jenis atom tersebut dapat di program dengan menggunakan impulse frekuensi radio dan dapat dideteksi dengan alat resonansi magnetis nuklir.
Algoritma Shor ini menarik minat para ilmuwan IBM untuk mengontrol sebuah tabung kecil yang berisikan 1 miliar atau didefinisikan 10 pangkat 8 dari molekul-molekul ini untuk dapat menjalankan algoritma shor. Tujuannya cuma satu yakni untuk mengindentifikasi secara tepat 3 dan 5 sebagai faktor 15.


 Entanglement
 
Entanglement merupakan fenomena yang dihasilkan dari mekanika kuantum dan dimanfaatkan untuk teknologi komputer kuantum. Rumusannya seperti ini, terdapat 2 buah atom yang telah mendapatkan gaya tertentu, keduanya bisa masuk pada keadaan entangled. Keadaan ini memungkinkan kedua atom-atom tersebut akan tetap berhubungan walaupun jarak memisahkan keduanya. Ini dibuktikan dengan sebuah analogi yang menggambarkan sepasang manusia yang memiliki telepati yang jika salah satu dicubit maka yang lain akan merasakan sakit juga. Perlakuan terhadap salah satu atom akan mempengaruhi keadaan atom yang menjadi pasangannya. Situasi ini sungguh cepat dan seakan-akan mengalahkan kecepatan cahaya.

Essential Elements Teori Quantum:
Energi, seperti materi, terdiri dari unit diskrit, bukan hanya sebagai gelombang terus menerus. Dasar partikel dari kedua energi dan materi, tergantung pada kondisi, mungkin berperilaku seperti baik partikel atau gelombang. Gerakan partikel dasar secara inheren acak, dan, dengan demikian, tak terduga. Pengukuran simultan dari dua nilai komplementer, seperti posisi dan momentum suatu partikel dasar, adalah inescapably cacat, nilai yang lebih tepat diukur, semakin cacat akan menjadi pengukuran nilai lain.
 
Quantum Programming
Mungkin bahkan lebih menarik daripada daya semata-mata komputasi kuantum adalah kemampuan yang menawarkan untuk menulis program dengan cara yang sama sekali baru. Sebagai contoh, sebuah komputer kuantum bisa menggabungkan urutan program yang akan di sepanjang baris "mengambil semua superposisi dari semua perhitungan sebelumnya" - sesuatu yang tidak berarti dengan komputer klasik - yang akan memungkinkan cara-cara yang sangat cepat untuk memecahkan masalah matematika tertentu , seperti faktorisasi jumlah besar, salah satu contoh yang kita bahas di bawah ini.
 
Ada dua keberhasilan penting sejauh ini dengan pemrograman kuantum. Yang pertama terjadi pada tahun 1994 oleh Peter Shor, (sekarang di AT & T Labs) yang mengembangkan sebuah algoritma kuantum yang efisien bisa menguraikan pd pengali jumlah besar. Ini pusat pada sistem yang menggunakan teori bilangan untuk memperkirakan periodisitas dari urutan nomor besar. Terobosan besar lainnya terjadi dengan Lov Grover dari Bell Labs pada tahun 1996, dengan algoritma yang sangat cepat yang terbukti menjadi yang tercepat mungkin untuk mencari melalui database tidak terstruktur. Algoritma ini sangat efisien sehingga hanya membutuhkan rata-rata, sekitar akar N persegi (dimana N adalah jumlah total elemen) pencarian untuk menemukan hasil yang diinginkan, sebagai lawan pencarian dalam komputasi klasik, yang pada kebutuhan rata-rata N / 2 pencarian.
 
 
Superposisi
                
Bayangkan sebuah qubit sebagai elektron dalam medan magnet. spin elektron tersebut mungkin baik sejalan dengan bidang, yang dikenal sebagai negara-up spin, atau sebaliknya ke lapangan, yang dikenal sebagai negara-down spin. Mengubah spin elektron dari satu negara ke lain dicapai dengan menggunakan pulsa energi, seperti dari laser - mari kita berkata, bahwa kita menggunakan 1 unit energi laser. Tapi bagaimana kalau kita hanya menggunakan setengah unit energi laser dan benar-benar mengisolasi partikel dari segala pengaruh eksternal? Menurut hukum kuantum, partikel kemudian memasuki superposisi negara, di mana ia berperilaku seolah-olah itu di kedua negara secara bersamaan. Setiap qubit dimanfaatkan bisa mengambil suatu superposisi dari kedua 0 dan 1. Dengan demikian, jumlah perhitungan bahwa sebuah komputer kuantum dapat melakukan adalah 2 ^ n, dimana n adalah jumlah qubit yang digunakan. Sebuah komputer kuantum terdiri dari 500 qubit akan memiliki potensi untuk melakukan 2 ^ 500 perhitungan dalam satu langkah. Ini adalah nomor awesome - 2 ^ 500 adalah atom jauh lebih daripada yang terdapat di alam semesta (ini pemrosesan paralel benar - klasik komputer saat ini, bahkan disebut prosesor paralel, masih hanya benar-benar melakukan satu hal pada suatu waktu: hanya ada dua atau lebih dari mereka melakukannya). Tapi bagaimana partikel-partikel ini berinteraksi dengan satu sama lain? Mereka akan melakukannya melalui belitan kuantum.  
Keterkaitan Partikel (seperti foton, elektron, atau qubit) yang berinteraksi di beberapa titik mempertahankan jenis koneksi dan dapat dijerat dengan satu sama lain dalam pasangan, dalam proses yang dikenal sebagai korelasi. Mengetahui keadaan spin dari satu partikel terjerat - atas atau bawah - memungkinkan seseorang untuk mengetahui bahwa spin dari pasangannya adalah dalam arah yang berlawanan. Bahkan lebih menakjubkan adalah pengetahuan yang, karena fenomena superpostition, partikel diukur tidak memiliki arah spin tunggal sebelum diukur, namun secara bersamaan di kedua spin-up dan keadaan spin-down. Keadaan spin dari partikel yang diukur diputuskan pada saat pengukuran dan dikomunikasikan kepada partikel berkorelasi, yang sekaligus mengasumsikan berputar arah berlawanan dengan yang partikel diukur. Ini adalah fenomena nyata (Einstein menyebutnya "aksi seram pada jarak"), mekanisme yang tidak bisa, belum, dijelaskan dengan teori apapun - itu hanya harus diambil seperti yang diberikan. Keterkaitan kuantum memungkinkan qubit yang dipisahkan oleh jarak yang luar biasa untuk berinteraksi satu sama lain secara instan (tidak terbatas pada kecepatan cahaya). Tidak peduli seberapa besar jarak antara partikel berkorelasi, mereka akan tetap terjerat selama mereka terisolasi.  
Secara keseluruhan, superposisi kuantum dan belitan menciptakan daya komputasi sangat ditingkatkan. Apabila suatu register 2-bit di komputer biasa dapat menyimpan hanya satu dari empat konfigurasi biner (00, 01, 10, atau 11) pada waktu tertentu, daftar 2-qubit dalam sebuah komputer kuantum dapat menyimpan semua empat nomor-nomor secara bersamaan, karena qubit masing-masing mewakili dua nilai. Jika qubit yang lebih banyak, peningkatan kapasitas diperluas secara eksponensial.
 
 
Perkembangan lebih lanjut Teori Quantum
Niels Bohr mengusulkan interpretasi Copenhagen dari teori kuantum, yang menyatakan bahwa partikel adalah apa pun yang diukur harus (misalnya, gelombang atau partikel a) tetapi itu tidak dapat dianggap memiliki sifat tertentu, atau bahkan ada, sampai diukur. Singkatnya, Bohr mengatakan bahwa realitas obyektif tidak ada. Ini berarti dengan prinsip yang disebut superposisi yang menyatakan bahwa sementara kita tidak tahu apa keadaan objek apapun, sebenarnya di semua negara yang mungkin secara bersamaan, selama kita tidak melihat untuk memeriksa.  
Untuk menggambarkan teori ini, kita dapat menggunakan analogi yang terkenal dan agak kejam Schrodinger's Cat. Pertama, kami memiliki kucing hidup dan tempatkan dalam kotak memimpin tebal. Pada tahap ini, tidak ada pertanyaan bahwa kucing masih hidup. Kami kemudian melemparkan dalam botol sianida dan segel kotak. Kami tidak tahu apakah kucing hidup atau jika telah melanggar kapsul sianida dan mati. Karena kita tidak tahu, kucing adalah baik mati dan hidup, menurut hukum kuantum - dalam superposisi negara. Hanya ketika kita membuka kotak dan melihat apa kondisi kucingnya ada di bahwa superposisi terputus, dan kucing harus baik hidup atau mati.  
Interpretasi kedua adalah teori kuantum atau banyak-dunia teori multiverse. Ini memegang bahwa segera setelah potensi ada untuk objek apapun untuk berada dalam keadaan apapun, alam semesta itu transmute objek menjadi serangkaian alam semesta paralel sama dengan jumlah negara yang mungkin di mana objek dapat eksis, dengan alam semesta masing-masing berisi negara yang unik mungkin satu objek itu. Selain itu, ada mekanisme untuk interaksi antara alam semesta yang entah bagaimana memungkinkan semua negara untuk dapat diakses dengan cara tertentu dan untuk semua negara mungkin akan terpengaruh dalam beberapa cara. Stephen Hawking dan almarhum Richard Feynman adalah di antara para ilmuwan yang telah menyatakan preferensi untuk teori banyak-dunia.  
Yang pernah satu argumen memilih, prinsip bahwa, dalam beberapa cara, satu partikel bisa ada di berbagai negara membuka implikasinya yang mendalam untuk komputasi. Sebuah Perbandingan Klasik dan Quantum Computing mengandalkan komputasi klasik, pada tingkat teratas, pada prinsip-prinsip yang diungkapkan oleh aljabar Boolean, beroperasi dengan (biasanya) 7-mode gerbang logika prinsip, meskipun mungkin ada dengan hanya tiga mode (yang DAN, TIDAK, dan COPY). Data harus diproses dalam keadaan biner eksklusif pada setiap saat - yaitu, baik 0 (off / false) atau 1 (on / true). Nilai-nilai adalah digit biner, atau bit. Jutaan transistor dan kapasitor di jantung komputer hanya bisa dalam satu negara pada titik apapun. Sedangkan saat itu setiap transistor atau kapasitor perlu baik dalam 0 atau 1 sebelum beralih menyatakan sekarang diukur dalam miliar detik, masih ada batas untuk berapa cepat perangkat ini dapat dibuat untuk beralih negara. Ketika kami maju ke sirkuit yang lebih kecil dan lebih cepat, kita mulai mencapai batas fisik material dan ambang untuk hukum klasik fisika untuk diterapkan. Di luar ini, dunia kuantum mengambil alih, yang membuka potensi sebagai besar sebagai tantangan yang disajikan. Komputer Quantum, sebaliknya, dapat bekerja dengan modus logika gerbang-dua: XOR dan mode kami akan menelepon QO1 (kemampuan untuk mengubah 0 menjadi superposisi 0 1, dan gerbang logika yang tidak bisa eksis dalam komputasi klasik) . Dalam komputer kuantum, sejumlah elemen partikel seperti elektron atau foton dapat digunakan (dalam praktek, keberhasilan juga telah dicapai dengan ion), baik dengan biaya atau polarisasi bertindak sebagai representasi dari 0 dan / atau 1. Setiap partikel ini dikenal sebagai bit kuantum, atau qubit, sifat dan perilaku partikel-partikel ini membentuk dasar perhitungan kuantum. Dua aspek yang paling relevan fisika kuantum adalah prinsip-prinsip superposisi dan belitan.
 
Masalah Dan Beberapa Solusi
 
Beberapa masalah dengan komputasi kuantum adalah sebagai berikut:
1. Interferensi - Selama tahap perhitungan perhitungan kuantum, gangguan sekecil apapun dalam sebuah sistem kuantum (mengatakan foton tersesat atau gelombang radiasi EM) menyebabkan perhitungan kuantum runtuh, sebuah proses yang dikenal sebagai de-koherensi. Sebuah komputer kuantum harus benar-benar terisolasi dari semua gangguan eksternal selama tahap perhitungan. Beberapa keberhasilan telah dicapai dengan penggunaan qubit dalam medan magnet kuat, dengan penggunaan ion.

2. Koreksi kesalahan - Karena benar-benar mengisolasi sistem kuantum terbukti sangat sulit, sistem koreksi kesalahan untuk perhitungan kuantum telah dikembangkan. Qubit tidak bit data digital, sehingga mereka tidak dapat menggunakan konvensional (dan sangat efektif) koreksi kesalahan, seperti metode triple berlebihan. Mengingat sifat dari komputasi kuantum, koreksi kesalahan ultra kritis - bahkan satu kesalahan dalam perhitungan dapat menyebabkan validitas perhitungan seluruh runtuh. Telah ada kemajuan di bidang ini, dengan koreksi kesalahan algoritma dikembangkan yang memanfaatkan 9 qubit (1 komputasi dan 8 pemasyarakatan). Baru-baru ini, ada sebuah terobosan oleh IBM yang membuat hubungannya dengan total 5 qubit (1 komputasi dan 4 pemasyarakatan).

3. memperhatikan Output - erat terkait dengan di atas dua, mengambil data keluaran setelah perhitungan kuantum adalah risiko selesai merusak data. Dalam sebuah contoh dari sebuah komputer kuantum dengan 500 qubit, kita memiliki 1 dalam 2 ^ 500 kesempatan mengamati output benar jika kita mengukur output. Jadi, apa yang dibutuhkan adalah suatu metode untuk memastikan bahwa, segera setelah semua perhitungan dibuat dan tindakan observasi berlangsung, nilai diamati akan sesuai dengan jawaban yang benar. Bagaimana hal ini dapat dilakukan? Ini telah dicapai oleh Grover dengan algoritma pencarian database-nya, yang bergantung pada bentuk khusus "gelombang" dari kurva probabilitas yang melekat dalam komputer kuantum, yang menjamin, setelah semua perhitungan selesai, tindakan pengukuran akan melihat keadaan kuantum decohere ke jawaban yang benar.

4. Meskipun ada banyak masalah untuk mengatasi, terobosan dalam 15 tahun terakhir, dan terutama dalam 3 terakhir, telah membuat beberapa bentuk komputasi kuantum praktis tidak layak, tapi ada banyak perdebatan mengenai apakah ini kurang dari satu dekade lagi atau seratus tahun ke depan. Namun, potensi bahwa teknologi ini menawarkan banyak menarik minat luar biasa baik dari pemerintah dan sektor swasta. aplikasi Militer mencakup kemampuan untuk memecahkan kunci enkripsi melalui pencarian kekerasan, sedangkan aplikasi sipil berkisar dari pemodelan DNA untuk analisis ilmu material yang kompleks. Ini adalah potensi ini yang cepat mendobrak hambatan untuk teknologi ini, tapi apakah semua hambatan bisa pecah, dan ketika, sangat banyak pertanyaan terbuka.


sumber:
http://juniar-abe.blogspot.com/2011/05/quantum-computing.html
 
http://id.wikipedia.org/wiki/Komputer_kuantum

http://www.faktailmiah.com/2010/08/06/kemajuan-jaringan-kuantum-dengan-entanglement-foton-pada-kubit-keadaan-padat.html 

http://bintangfebryanmarpaung.blogspot.com/2013/05/pengantar-komputasi-modern-iii_15.html

Minggu, 11 Mei 2014

Big Data



Nama : Denny Ardiansyah
Kelas : 4IA17
NPM : 51410800

Big data, Map Reduce dan NoSQL

Pendahuluan

Latar Belakang

                Beberapa tahun belakangan ini, jika ditanyakan tentang apa yang sedang menjadi trend dalam dunia Teknologi Informasi (TI), mungkin banyak yang akan menjawab "Cloud Computing". Tetapi, sejak awal tahun 2011 muncul istilah "Big Data" yang kemudian menarik perhatian banyak profesional maupun pemerhati Teknologi Informasi. Sejauh ini, perusahaan-perusahaan terkemuka telah memberdayakan infomasi dan data dengan beragam teknologi manajemen data guna menunjang kemajuan bisnisnya. Sebagian besar telah menggunakan tools seperti Data Warehouse (DWH) maupun Business Intelligence (BI) serta aplikasi manajemen harga dan penjualan lainnya sebagai alat pengolah data yang mereka perlukan dalam aktifitas bisnis.

Tujuan

Tujuan Big Data adalah suatu sistem yang berfungsi untuk memproses atau mengolah data yang berukuran sangat besar, misalnya dalam skala petabyte.

Isi

Big Data

                Big Data berarti suatu data dengan kapasitas yang besar. Sebagai contoh, saat ini kapasitas DWH yang digunakan oleh perusahaan-perusahaan di Jepang berkisar dalam skala terabyte. Namun, jika misalnya dalam suatu sistem terdapat 1000 terabyte (1 petabyte) data, apakah sistem tersebut bisa disebut Big Data? Satu lagi, Big Data sering dikaitkan dengan SNS (Social Network Service), contohnya Facebook. Memang benar Facebook memiliki lebih dari 800 juta orang anggota, dan dikatakan bahwa dalam satu hari Facebook memproses sekitar 10 terabyte data.
                Pada umumnya, SNS seperti Facebook tidak menggunakan RDBMS(Relational DataBase Management System) sebagai software pengolah data, melainkan lebih banyak menggunakan NoSQL. Lalu, apa kita bisa menyebut sistem NoSQL sebagai Big Data? Dengan mengkombinasikan kedua uraian diatas, dapat ditarik sebuah definisi bahwa Big Data adalah "suatu sistem yang menggunakan NoSQL dalam memproses atau mengolah data yang berukuran sangat besar, misalnya dalam skala petabyte". Big Data memuat arti yang lebih kompleks sehingga perlu definisi yang sedikit lebih kompleks pula demi mendeskripsikannya secara keseluruhan.
                Fakta menunjukkan bahwa bukan hanya NoSQL saja yang mampu mengolah data dalam skala raksasa (petabyte). Beberapa perusahaan telah menggunakan RDBMS untuk memberdayakan data dalam kapasitas yang sangat besar. Sebagai contoh, Bank of America memiliki DWH dengan kapasitas lebih dari 1,5 petabyte, Wallmart Stores yang bergerak dalam bisnis retail (supermarket) berskala dunia telah mengelola data berkapasitas lebih dari 2,5 petabyte, dan bahkan situs auction (lelang) eBay memiliki DWH yang menyimpan lebih dari 6 petabyte data. Oleh karena itu, hanya karena telah berskala petabyte saja, suatu data belum bisa disebut Big Data. Sekedar referensi, DWH dengan kapasitas sangat besar seperti beberapa contoh diatas disebut EDW(Enterprise Data Warehouse) dan database yang digunakannya disebut VLDB(Very Large Database).
                Memang benar, NoSQL dikenal memiliki potensi dan kapabilitas Scale Up (peningkatan kemampuan mengolah data dengan menambah jumlah server atau storage) yang lebih unggul daripada RDBMS. Tetapi, bukan berarti RDBMS tak diperlukan. NoSQL memang lebih tepat untuk mengolah data yang sifatnya tak berstruktur seperti data teks dan gambar, namun NoSQL kurang tepat bila digunakan untuk mengolah data yang sifatnya berstruktur seperti data-data numerik, juga kurang sesuai untuk memproses data secara lebih detail demi menghasilkan akurasi yang tinggi. Pada kenyataannya, Facebook juga tak hanya menggunakan NoSQL untuk memproses data-datanya, Facebook juga tetap menggunakan RDBMS. Lain kata, penggunaan RDBMS dan NoSQL mesti disesuaikan dengan jenis data yang hendak diproses dan proses macam apa yang dibutuhkan guna mendapat hasil yang optimal.

MapReduce

                MapReduce adalah model pemrograman rilisan Google yang ditujukan untuk memproses data berukuran raksasa secara terdistribusi dan paralel dalam cluster yang terdiri atas ribuan komputer. Dalam memproses data, secara garis besar MapReduce dapat dibagi dalam dua proses yaitu proses Map dan proses Reduce. Kedua jenis proses ini didistribusikan atau dibagi-bagikan ke setiap komputer dalam suatu cluster (kelompok komputer yang salih terhubung) dan berjalan secara paralel tanpa saling bergantung satu dengan yang lainnya.
                Proses Map bertugas untuk mengumpulkan informasi dari potongan-potongan data yang terdistribusi dalam tiap komputer dalam cluster. Hasilnya diserahkan kepada proses Reduce untuk diproses lebih lanjut. Hasil proses Reduce merupakan hasil akhir yang dikirim ke pengguna. Dari definisinya, MapReduce mungkin terkesan sangat ribet. Untuk memproses sebuah data raksasa, data itu harus dipotong-potong kemudian dibagi-bagikan ke tiap komputer dalam suatu cluster. Lalu proses Map dan proses Reduce pun harus dibagi-bagikan ke tiap komputer dan dijalankan secara paralel. Terus hasil akhirnya juga disimpan secara terdistribusi. Benar-benar terkesan merepotkan.
                Beruntunglah, MapReduce telah didesain sangat sederhana alias simple. Untuk menggunakan MapReduce, seorang programer cukup membuat dua program yaitu program yang memuat kalkulasi atau prosedur yang akan dilakukan oleh proses Map dan Reduce. Jadi tidak perlu pusing memikirkan bagaimana memotong-motong data untuk dibagi-bagikan kepada tiap komputer, dan memprosesnya secara paralel kemudian mengumpulkannya kembali. Semua proses ini akan dikerjakan secara otomatis oleh MapReduce yang dijalankan diatas Google File System.

NoSQL

                NoSQL adalah istilah yang dikenal dalam teknologi komputasi untuk merujuk kepada kelas yang luas dari sistem manajemen basis data yang di identifikasikan dengan tidak mematuhi aturan pada model sistem manajemen basis data relasional yang banyak digunakan. NoSQL tidak seperti sistem basis data pada umumnya yang menggunakan syntax SQL dalam pengoperasian  nya dalam mengakses sebuah database. Pada konsep NoSQL, untuk mengakses data pada database dapat menggunakan object-oriented programming yang banyak digunakan oleh developer pada saat ini.
                Namun begitu, metode ini masih kalah populer dengan metode SQL biasa. Hanya untuk kebutuhan yang khusus ada perusahaan yang menggunakannya. Walaupun begitu NoSQL dapat menjadi alternatif lain untuk pengaksesan sebuah database. Salah satu produk yang menyediakan NoSQL yang saya ketahui adalah MongoDB. Saya rasa produk ini populer di kalangan depelover yang menggunakan NoSQL.

Kesimpulan

                Dari uraian diatas, dapat disimpulkan bahwa yang dimaksud dengan big data bukanlah semata-mata hanya soal ukuran, bukan hanya tentang data yang berukuran raksasa. Big data adalah data berukuran raksasa yang volumenya terus bertambah, terdiri dari berbagai jenis atau varietas data, terbentuk secara terus menerus dengan kecepatan tertentu dan harus diproses dengan kecepatan tertentu pula. Lalu Map Reduce danNoSQL (Not Only SQL) adalah sebuah pemogramaan framework guna untuk membantu user mengembangankan sebuah data yang ukuran besar dapat terdistribusi satu sama lain.

Daftar Pustaka

  • http://romydjuniardi.blogspot.com/2013/05/map-reduce-dan-nosql.html
  •  http://vijjam.blogspot.com/2013/12/memahami-definisi-big-data.html
  •  http://www.komputasiawan.com/python/map-reduce
  • http://vijjam.blogspot.jp/2013/02/mapreduce-besar-dan-powerful-tapi-tidak.html

Distributed Computation dalam Cloud Computing



Nama : Denny Ardiansyah
Kelas : 4IA17
NPM : 51410800

Distributed Computation dalam Cloud Computing

Pendahuluan

Latar Belakang

                Komputasi awan adalah gabungan pemanfaatan teknologi komputer ('komputasi') dan pengembangan berbasis Internet ('awan'). Cloud adalah metafora dari internet, sebagaimana awan yang sering digambarkan di diagram jaringan komputer. Sebagaimana awan dalam diagram jaringan komputer tersebut, Cloud dalam Cloud Computing juga merupakan abstraksi dari infrastruktur kompleks yang disembunyikannya.

Tujuan

                Cloud computing merupakan teknologi yang berkembang saat ini, komputasi terdistribusi merupakan salah satu tujuan dari adanya cloud computing itu sendiri. Dengan adanya cloud computing, maka pengaksesan sumber daya secara paralel, para pengguna juga bisa memanfaatkannya secara bersamaan, terdiri dari banyak sistem sehingga jika salah satu sistem crash, sistem lain tidak akan terpengaruh dan juga dapat menghemat biaya operasional karena tidak membutuhkan sumber daya.

Isi

Cloud Computing

                Cloud computing adalah penggunaan sumber daya komputasi (hardware dan software) yang diwujudkan dalam bentuk layanan yang bisa diakses melalui jaringan (biasanya internet). Asal kata “cloud” diambil dari penggunaan simbol berbentuk awan yang sering digunakan sebagai abstraksi penggambaran infrastruktur kompleks yang dikandungnya dalam sebuah sistem. “
                Namun definisi yang diberikan wikipedia tersebut tidak sejalan dengan layanan yang saat ini diberikan oleh Cloud Computing Service Provider (atau lebih akrab disapa CCSP) atau sering tidak sejalan dengan pemahaman dari perspektif perusahaan yang mengakses layanan cloud computing. Sebagai contoh; pada bulan Juni 2009, Verizon mengumumkan layanan barunya untuk delivery cloud computing services yang bisa diakses melalui jaringan MPLS.  Dalam hal ini metode pengaksesan cloud computing tidak melalui internet namun melalui layanan WAN dari Verizon. Dengan pengaksesan layanan melalui WAN maka user dari cloud computing tersebut bisa mendapatkan tingkatan delay dan paket loss yang lebih kecil, terukur dan bisa lebih digaransi. Pendekatan pada case verizon ini merefer pada salah satu tipe arsitektur yang disupport oleh cloud computing yakni private cloud computing.
                Definisi lain, Komputasi awan adalah suatu konsep umum yang mencakup SaaS, Web 2.0, dan tren teknologi terbaru lain yang dikenal luas, dengan tema umum berupa ketergantungan terhadap Internet untuk memberikan kebutuhan komputasi pengguna. Sebagai contoh, Google Apps menyediakan aplikasi bisnis umum secara daring yang diakses melalui suatu penjelajah web dengan perangkat lunak dan data yang tersimpan di server. Komputasi awan saat ini merupakan trend teknologi terbaru, dan contoh bentuk pengembangan dari teknologi Cloud Computing ini adalah iCloud. 

Kelebihan Cloud Computing

  • Menghemat biaya investasi awal untuk pembelian sumber daya.
  • Bisa menghemat waktu sehingga perusahaan bisa langsung fokus ke profit dan berkembang dengan cepat.
  • Membuat operasional dan manajemen lebih mudah karena sistem pribadi/perusahaan yang tersambung dalam satu cloud dapat dimonitor dan diatur dengan mudah.
  •  Menjadikan kolaborasi yang terpercaya dan lebih ramping.
  • Menghemat biaya operasional pada saat realibilitas ingin ditingkatkan dan kritikal sistem informasi yang dibangun.    

Kekurangan Cloud Computing
  • Komputasi awan tidak dapat dilakukan jika tidak dapat terhubung ke Internet.
  • Apabila koneksi internet yang lambat, maka cloud computing tidak lagi optimal untuk digunakan.
  •  Fitur yang ditawarkan tidak selengkap aplikasi desktop.
  •  Data yang disimpan dalam awan secara umum tidaklah aman karena diperbanyak di beberapa mesin.
  • Satu Pusat Serangan. Penempatan semua server dalam satu komputer akan menjadikannya sebagai target serangan.

Distributed Computation Dalam Cloud Computing

                Secara sederhana, distributed computing dapat diartikan sebagai suatu teknologi yang dapat memecahkan suatu masalah besar ke dalam proses-proses kecil ke banyak komputer untuk kemudian proses kecil itu dipecahkan secara simultan dan apabila sudah didapatkan solusi-solusi kecil maka disatukan kembali dalam satu solusi yang besar dan terintegrasi. Dari tujuannya, distributed computing menghubungkan banyak user dan resource yang bekerjasama memecahkan permasalahan dalam sistem yang terbuka, transparan dan memiliki skalabilitas yang tinggi. Distributed computing mengacu pada penggunaan sistem terdistribusi untuk memecahkan masalah komputasi. Dalam distributed computing, masalah dibagi menjadi banyak tugas, masing-masing yang diselesaikan oleh satu komputer. Komputer yang saling berinteraksi untuk mencapai tujuan bersama. Sebuah sistem terdistribusi terdiri dari beberapa komputer otonom yang berkomunikasi melalui jaringan komputer.

Kesimpulan

Cloud Computing merupakan teknologi yang diperlukan saat ini, karena dengan adanya cloud computing ini maka akan memudahkan para pengguna internet dalam menyimpan data mereka.

Daftar Pustaka

  • http://duniatelekomunikasi.wordpress.com/2012/09/17/definisi-cloud-computing/
  •  http://mynewsworthy99.blogspot.com/2013/05/pengantar-komputasi-cloud.html
  • http://id.wikipedia.org/wiki/Komputasi_awan