Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Lompat ke isi

Teori informasi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Fungsi entropi biner Bernoulli

Teori informasi (Inggris: information theory) adalah disiplin ilmu dalam bidang matematika terapan yang berkaitan dengan kuantisasi data sehingga data atau informasi itu dapat disimpan dan dikirimkan tanpa kesalahan (error) melalui suatu kanal komunikasi. Entropi informasi (information entropy) sering dipakai sebagai alat untuk maksud ini, dan biasanya dinyatakan sebagai banyaknya bit rerata yang diperlukan untuk penyimpanan dan pengiriman informasi tersebut. Sebagai contoh, jika keadaan cuaca harian dinyatakan dengan entropi 3 bit, maka kita katakan bahwa cuaca itu mempunyai rata-rata 3 bit tiap harinya.

Aplikasi dari topik dasar dalam teori informasi meliputi kompresi data tanpa cacat (lossless data compression, pada file ZIP misalnya), kompresi data (lossy data compression, pada file MP3, misalnya), dan pengkodean kanal (channel coding, pada saluran DSL, ADSL dll). Biasanya teori informasi merupakan titik temu dari bidang –bidang matematika, statistika, ilmu komputer, fisika, neurobiologi, dan teknik listrik serta komputer. Implementasi dari teori ini berdampak langsung dengan misi ruang angkasa, pemahaman mengenai lubang hitam dalam galaksi, dengan penelitian linguistika dan persepsi manusia, dengan jaringan komputer, jaringan Internet serta jaringan telepon genggam.

Secara khusus, teori informasi adalah cabang dari matematika peluang dan statistik, yang berkaitan dengan konsep informasi dan entropi informasi seperti telah dijelaskan di atas. Claude Shannon (1916-2001) dikenal sebagai "bapak dari teori informasi". Shannon mendefinisikan pengukuran dari entropi informasi (dalam bit) sebagai:

Rumus ini jika diterapkan pada suatu sumber informasi, dapat menentukan kapasitas dari saluran yang diperlukan untuk mengirim data yang diterjemahkan ke dalam digit biner.

Pranala luar

[sunting | sunting sumber]