Informace

Z Wikipedie, otevřené encyklopedie
Skočit na: Navigace, Hledání

Informace (z lat. in-formatio, utváření, ztvárnění) je velmi široký, mnohoznačný pojem, který se užívá v různých významech. V nejobecnějším smyslu je informace chápána jako údaj o prostředí, jeho stavu a procesech v něm probíhajících. Informace snižuje nebo odstraňuje neurčitost (entropii) systému (např. příjemce / uživatele informace). Množství informace lze charakterizovat tím, jak se jejím přijetím změnila míra neurčitosti přijímajícího systému.[1]

Užší významy informace lze zhruba roztřídit takto:

  • V běžné řeči:
    • informace jako vědění, které lze předávat, jako obsah zprávy či sdělení;
    • informace (plurál) - místo, kde se lze o něčem informovat.
  • Ve vědě je informace vnímaným údajem o vlastnostech a uspořádání objektu (negentropie).
  • V informatice tvoří informaci kódovaná data (protiklad šumu), která lze vysílat, přijímat, uchovávat a zpracovávat technickými prostředky. Množství informace je rozdíl mezi neurčitostí (entropií) informace (nebo stavu) před a po zprávě. Občas je slovo informace chybně zaměňováno s pojmem data, který spíše představuje „to, z čeho informaci získáváme“ (například číslo na konkrétní osobu z telefonního seznamu). Nosičem informace je signál.

Výklad pojmu informace[editovat | editovat zdroj]

Ve starší odborné literatuře můžeme najít snahu o uchopení pojmu informace rozdělením vnitřního obsahu pojmu do několika kategorií. (Niedhardt P.: Einführung in die Informationstheorie. Verlag Technik Berlin, Berliner Union Stuttgart 1957)

  • Informace sémantická se zabývá pouze sémantickým významem slov.
  • Informace pragmatická zohledňuje pouze přírůstek znalostí. Již známé není informací v tomto slova smyslu. Škola je zdrojem takovýchto informací.
  • Informace idealizovaná je dána individuálním hodnocením příjemce a je závislá na jeho předchozím vzdělání a zkušenostech, ale i na jeho okamžitém emocionálním stavu. Např. co se mi ráno líbilo, už nemusí platit odpoledne.
  • Informace inženýrská, definovaná C. E. Shannonem jako "snížení neurčitosti systému" a matematicky vyjádřená jako logaritmus pravděpodobnosti nějakého jevu (přenosu zprávy) při rovnoměrném rozložení hustoty pravděpodobnosti. Pro pravděpodobnost 1/2 při dvojkovém logaritmu dostaneme jednotku zvanou bit. Bit je pouze jednotka informace, jako je metr nebo coul jednotkou vzdálenosti.

Definice[editovat | editovat zdroj]

Fyzikální definice: Informace je schopnost organizovat, nebo v organizovaném stavu udržovat.[2] Informace obecně je proces vnímání a poznávání vlastností a uspořádání objektů kolem nás.

Pro živé bytosti lze definici informace doplnit také tím, že informace je odpovědí na otázku.[2]

Definice z teorie informace[3]: Informaci I(X;Y) ve zprávě Y o zprávě X zdroje  \scriptstyle (X,Y) \sim (\mathcal{X} \times \mathcal{Y}, p(x,y)) definujeme jako relativní entropii  \scriptstyle D(p(x,y) \| p(x) p(y)) mezi skutečným rozdělením p(x,y) dvojice zpráv (X,Y) a součinovým rozdělením q(x,y) = p(x)p(y), kterým by se dvojice řídila, kdyby její komponenty X a Y byly vzájemně nezávislé, tj.

 I(X;Y) = \sum_{x \in \mathcal{X}} \sum_{y \in \mathcal{Y}} p(x,y) \log \frac{p(x,y)}{p(x) p(y)} .

(Logaritmus se obyčejně uvažuje dvojkový. V tom případě je informace vyjádřena v bitech.)

Vlastnosti informace[editovat | editovat zdroj]

Informace (aby dostála fyzikální definici) musí mít určité vlastnosti

Informace by měla být:

  • pravdivá
  • srozumitelná - různé řeči, různé kódy, šifrování,
  • včasná,
  • relevantní, česky souvztažná - ne „já o koze, ty o voze“,
  • etická - platí jen pro mezilidské vztahy. Není to podmínka nutná, jako předchozí, ale žádoucí.

Informace je nezávislá na svém energetickém nosiči. Změna energetického nosiče má za následek pouze změnu vlastností přenosové trasy (kanálu), ale smysl či obsah informace nemění. Je to jako s přepravou nákladu - náklad se nemění, ať použijeme k přepravě koně, auto, nebo letadlo.

Některé souvislosti

Signál 
je vysílaný údaj o stavu a o uspořádání objektu. V případě příjmu a zpracování recipientem se může stát informací.
Modulace 
je způsob přiřazení signálu jeho nosiči
Šum : je rozdíl mezi tím, co bylo do informačního kanálu vloženo a tím, co bylo přijato
Kanál 
je informační cesta jakkoli realizovaná - např. i poštovní holub může být součástí informačního kanálu.

Záměrně falešná „informace“ se nazývá dezinformace nebo lež , pracuje s ní například propaganda. Rozdíl mezi dezinformací a lží spočívá v tom, že lež je používána pasivně jako obrana, zatímco dezinformace je aktivní. Nezáměrně špatná informace je chyba nebo omyl. Dezinformace, stejně jako chyba či omyl vede k nárůstu entropie systému, zatím co informace vede k poklesu entropie. Živé organizmy mají zápornou entropii.

Informace souvisí s rozlišováním, s rozdílem a určeností (například jako černé písmeno na bílém papíře). Informace má význam a je ji třeba odlišit od jejího hmotného nosiče – ať je to hlas, zvuk, obraz, písmo nebo disk. Povahu informace dobře vystihuje definice amerického antropologa Gregory Batesona: informace podle něho znamená „takový rozdíl, na němž záleží“ (the difference which makes difference).[4].

Schopnost rozlišení informace (srozumitelnosti) pak souvisí s tzv. odstupem signálu od šumu, který se udává v decibelech jako 10 x logaritmus poměru energie šumu k energii signálu.

Původ pojmu[editovat | editovat zdroj]

Latinské informatio znamená původně vtištění formy či tvaru, utváření. Slovo se však metaforicky používalo pro „utváření mysli“ – učení a vzdělávání – a odtud dalším významovým posunem mohlo znamenat i sdělení, zprávu. Odtud pochází slovo informátor, doložené od 16. století. Zkrácený tvar info vznikl až ve 20. století v angličtině. Vědecký zájem o informaci začíná také až ve 20. století v souvislosti s elektronickou komunikací a počítači a na druhé straně se studiem obecného uspořádání, struktur a kódů.

Šíření a uchovávání informace[editovat | editovat zdroj]

Rostoucí význam informací ve smyslu vědomostí a zpráv obrátil od konce 19. století pozornost vědců – zejména lingvistů – ke studiu znakových systémů a kódů. Informace se šíří řečí a v historické době i písmem, které ji kódují pomocí slov, hlásek a písmen. Ty nesou informaci jen proto, že tvoří ucelené systémy (slovník, fonetiku, abecedu): hlásky nesou význam jen potud, pokud se od sebe zřetelně liší (Ferdinand de Saussure). S písmem vznikla první možnost trvalého uchovávání informace na hmotném nosiči, jež se dále rozvinula knihtiskem a konečně i elektronickými způsoby uchovávání kódované informace. Odtud vznikl i pojem informační společnost – společnost, která se ve stále větší míře opírá o shromažďování, využívání a šíření informací.[5]

Přenos informace[editovat | editovat zdroj]

S rozvojem elektrických a elektronických komunikací se informace stává i technickým pojmem, i když v poněkud posunutém významu, který se soustřeďuje na kódování informace a nezabývá se jejím smyslem či obsahem. Základním modelem pro přenos informace je soustava vysílač (kodér) – kanál – přijímač (dekodér). Roku 1948 publikoval Claude Shannon, který pracoval pro Bellovy laboratoře, průkopnickou publikaci A Mathematical Theory of Communication[6], v níž se soustřeďuje na přenos zpráv, kódovaných v nějaké abecedě o konečném nebo spočetném množství znaků. Tak se stal jedním ze zakladatelů teorie informace.

Zpracování informací[editovat | editovat zdroj]

Zatímco účelem analogového přenosu informace je pouze přeměna hlasu nebo obrazu na elektrický signál, jeho věrný (nezkreslený) přenos a opačná změna na zvuk nebo obraz, už v telegrafii se objevila možnost úsporného kódování znaků. Morseova abeceda kóduje písmena a číslice do posloupností krátkých a dlouhých signálů (tečka a čárka), které se snadno a spolehlivě přenášejí. Na podobném základě pracuje i dálnopis, kde se však převod znaků abecedy do binárního tvaru (a nazpět) děje automaticky.

Kódovaná informace a její nosiče (děrná páska, děrný štítek, magnetické nosiče atd.) otevřela i další možnosti strojového zpracování informace, z nichž se vyvinula současná počítačová technika a informatika. Slovo „informace“ se zde však používá v několika rovinách: text, který právě píši, kóduji do písmen, ta se v počítači převádějí na binární kódy (ASCII, UNICODE) a přenášejí mezi počítači v určitých formátech, ale nakonec jako posloupnosti elektrických signálů. Informace, které do systému vkládáme, dospějí ke svým adresátům jen tehdy, pokud všechny tyto transformace jejich kódování a zobrazení proběhnou podle přesně stejných pravidel v přijímači jako ve vysílači, jen v opačném směru. Přenosové sítě proto musejí pracovat s víceúrovňovými modely, kde si vysílače a přijímače na jednotlivých úrovních „rozumějí“: pisatel se čtenářem, program s programem, počítač s počítačem, modem s modemem atd.

Měření informace[editovat | editovat zdroj]

Množství informace na hmotném nosiči lze dokonce měřit. V knihovnictví se užívá měření na stránky, novináři počítají slova nebo znaky a v počítači se informace měří na bajty nebo bity. Jeden Bit, odpovídá jednomu rozlišení typu „ano - ne“, nese informaci, ze které se dozvíme, který stav nastal ze dvou stavů pravděpodobných (např. házení mincí). Je to základní jednotka informace. Byte (též bajt) je skupina zpravidla osmi bitů, tím pádem může nabývat 256 různých hodnot a zhruba tak odpovídá jednomu znaku abecedy evropského jazyka (asijské symboly bývají obvykle kódovány užitím 2 až 4 bajty). Je to ovšem množství informace pouze v technickém smyslu slova: stránka textu může mít 1800 bytů, to ale neříká nic o tom, co je v nich zaznamenáno. Stejnou velikost mohou mít užitečné a smysluplné zprávy, prázdné řeči nebo konečně i samé mezery. Pro stanovení informační hodnoty souboru dat lze použít entropii.

Informace v dalších vědách[editovat | editovat zdroj]

Vedle běžného významu informací jako zpráv a vědomostí se informace dnes stala odborným pojmem v biologii i ve společenských vědách, zejména pod vlivem objevu genomu a genetického kódu. Zde je často ztotožňována informace s jejím původem, spočívajícím ve vlastnostech a uspořádání pozorovaných objektů. Genetická informace je totiž kódována pomocí pouhých čtyř nukleotidů (ACTG), jejichž trojice (kodóny) řídí syntézu proteinů; běžnými prostředky lze tedy měřit její informační obsah. Podobný informačně teoretický pohled se dnes rozvíjí také ve fyzice i ve společenských vědách.

Odkazy[editovat | editovat zdroj]

Reference[editovat | editovat zdroj]

  1. JONÁK, Zdeněk. Informace. In KTD: Česká terminologická databáze knihovnictví a informační vědy (TDKIV) [online]. Praha: Národní knihovna ČR, 2003 [cit. 2011-08-07]. Dostupné z: http://aleph.nkp.cz/F/?func=direct&doc_number=000000456&local_base=KTD.
  2. a b P. Beneš: Informace o informaci. BEN, 2010
  3. Vajda I., Teorie informace. Vydavatelství ČVUT, Praha 2004. ISBN 80-01-02986-7
  4. G. Bateson, Steps to an ecology of mind. St. Albans 1973, str. 428.
  5. Sokol, Filosofická antropologie. Oddíl „Společenská komunikace“, str. 77-80.
  6. [1] A Mathematical Theory of Communication

Literatura[editovat | editovat zdroj]

Související články[editovat | editovat zdroj]

Externí odkazy[editovat | editovat zdroj]