Krize mezilidské komunikace v období komunikační a informační exploze

V sérii článků nazvaných souhrnně "Pokles důvěry ve vědu jako důsledek změny paradigmatu vědy", jsem poukazoval na skutečnost, že teoretická základna současné vědy o informacích nedostatečně reflektuje a absorbuje teoretický vývoj společenských věd (zejména sociologie, psychologie, vědy o mozku apod.) a nemůže tudíž opětovně poskytovat společenským vědám očekávanou teoretickou oporu. Rozvoj poznatků o informaci a komunikaci se tak odehrává vně vědy o informacích a rozvoj této vědy je spojován výhradně s úspěchy výpočetní techniky. Příčinu tohoto zdrženlivého postoje lze spatřovat částečně i v tom, že teorie informace vznikala na půdě technických věd (sdělovací techniky, kybernetiky) a toto dědictví si dosud nese.

Ocitáme, se proto ve velmi paradoxní situaci: na jedné straně dochází k prudkému rozvoji technického aspektu komunikace umožňující transportovat obrovské soubory dat a na straně druhé se mluví o narůstající krizi mezilidské komunikace, zapříčiněné často absencí obsahů, které by bylo možné přenášet.

Snažil jsem se své úvahy o řešení tohoto rozporu opřít o argumenty z děl známých autorit. Cílem tohoto závěrečného článku je provést určité shrnutí problematiky vztahu společenských věd a vědy o informacích a vytvořit atmosféru pro určitou polemiku.

Chtěl bych nyní obrátit pozornost do blízké minulosti, ke snahám kybernetiky, teorie informace, a především kognitivní vědy, které konstituovaly projekt umělé inteligence s cílem simulovat s využitím výpočetní techniky lidské mentální procesy. Budeme se zamýšlet nad tím ,zda splnily, a zejména, zda vůbec mohly splnit, to co si splnit předsevzaly.

Kognitivní věda v polovině 70. let shromáždila poznatky z psychologie, lingvistiky, antropologie, filosofie a počítačové vědy a na základě sumarizace těchto poznatků dospěla k názoru, že funkce lidské inteligence lze připodobnit k funkcím informačního systému. Lidskou fyzikální stránku bylo tak možno s určitým zjednodušením přirovnat k hardware, mentální stránku k software počítače: cituji "mental phenomena can be fruitfully understood as operations on symbolic reprezentations and that the mind is thus, in some sense or other, an informations processor, has made possible a truly interdisciplinary approach, cognitive science, that holds the promise of being the long sought unified science of the mind."

Ve vzniklém modelu je "inteligence chápána výlučně jako záležitost fyzikálních operací se symboly a bez podstatného vztahu ke specifickému způsobu biologické či fyzikální realizace … Systém schopný správným způsobem manipulovat s fyzikálními symboly … je doslova nadán inteligencí stejně jako lidské bytosti." (1, s. 30-31) Tento předpoklad se stal motorem prudkého rozvoje výpočetní techniky. Dnes se jeví tato představa spíše jako jeden z možných modelů lidského mozku. V minulosti posloužila k modelování mozku i méně atraktivní zařízení: např. katapult (staří Řekové), hydraulický systém, elektromagnetický systém (S. Freud), telegraf (neurolog CH. S. Sherrington), telefonní ústředna apod (1, , s. 47)

Výše zmíněné sociální vědy dnes dospívají k hlubšímu poznání způsobu, jakým člověk zpracovává informace, jak s nimi nakládá, když řeší složité rozhodovací situace a jak na základě těchto informací jedná.

Vědci zabývající se mozkem mají výhrady proti ztotožňování pojmů zpracování informace mozkem a počítačem. Tyto pojmy v sobě obsahují silnou dvojznačnost. "Její podstatou je, že člověk při myšlení zpracovává informace a že informace zpracovává také počítač, přijímá-li něco na vstupu, transformuje-li to a vytváří-li nějakou informaci na výstupu, z čehož údajně vyplývá, že smysl, v němž oba systémy zpracovávají informace je jednotný. To je však očividný omyl. Zpracovávám-li při myšlení informace, je to vědomě nebo nevědomě součást jistých mentálních procesů. V tomto smyslu však počítač informace nezpracovává, v počítači se totiž žádné mentální procesy neodehrávají. Počítač pouze imituje nebo simuluje formální vlastnosti mentálních procesů." (1, s. 52)

Nebudu dále rozvíjet tyto teoretické argumenty, ale pokusím se doložit je na charakteristice inteligenční úrovně některých současných softwarových produktů počítačů. Uchovejme si jenom v paměti, že tyto výhrady existují a že jejich argumenty se opírají o nově zjištěné poznatky a že jejich počet sílí. Připomeňme si, že většina současných programových produktů ať již je jejich cílem vyhledávání, překlad, umělá inteligence, vychází převážně z lingvistických přístupů formulovaných Saussurem.

Tomuto pojetí plně vyhovovaly možnosti, jimiž disponuje výpočetní technika. V roce 1957 publikoval H.P. Luhn práci (2), v níž se pokusil charakterizovat obsah textu pomocí analýzy jeho frekvenční struktury. Vedlo ho k tomu zjištění, že jako významná lze označit slova, ležící mezi stanovenou nejnižší a nejvyšší hranicí. Nejnižší hranici mají obvykle slova pro text málo významná, nejvyšší slova obecná. Později byla metoda zdokonalována. Při výpočtu frekvence byl zvažován:
rozdíl relativní frekvence slova v textu a jeho průměrné frekvence v souboru textů, národním korpusu apod.
ukazatel vyjadřující odklon rozložení četností výskytu slova od Poissonova či normálního rozložení.

Jako další ukazatel byl použit údaj o souvýskytu n-tic řetězců slov dotazu v textu a byl k analýze čistě statisticky významných ukazatelů připojen i výzkum syntaktických a později i sémantických struktur textu. Spojením těchto prvků v programových produktech však vedlo k nárůstu složitosti algoritmů, přičemž výsledný efekt programových systémů se často nelišil od systémů primitivnějších. Příkladem může být systém SYNTOL (3) Od té doby uplynulo téměř půl století. Podívejme se nyní o jaké teoretické výsledky se opírají standardní programové produkty. Nebudeme se zabývat těmi, které průkazně nepokročily dále za klasickou metodu analýzy frekvenční struktury (např. Altavista apod.)
Pokusíme se pro ilustraci stručně charakterizovat dva systémy, které o sobě tvrdí, že napodobují ve své činnosti lidský mozek, jeho neuronové struktury apod.

SIMSTAT

Jde o systém automatické analýzy textu (Text Analysis Systém -TAS) jehož výsledným produktem by měly být: extrakt obsahu, soubor indexů pro přesné vyhledávání. Podstatou je metoda sémantická sítě. Tato metoda poskytuje o každém prvku dva údaje, umožňující stanovit sémantickou významnost slova ve větě a celém textu: ukazatel frekvence výskytu slova v textu a počet vazeb slova k ostatním slovům textu. Údajně jde o proces podobný v Hophieldově síti, jednovrstvové neuronální síti, kde jsou všechny neurony navzájem propojeny. Výsledek extrahování je dle popisu zdařilý. Algoritmus spočívá ve extrakci vět uspořádaných podle výskytu nejvýše sémanticky ohodnocených slov či sousloví v textu. Výsledný produkt je možné zúžit/rozšířit stanovením minimálního údaje o váze selektovaných slov. Činnost trvá článku trvá 2 sec.

Excalibur Retrieval Ware

Tento systém je prezentován jako znalostní vyhledávací systém s technologií APRP (Adaptive Pattern Recognition Processing). Tato technologie je založena rovněž na metodě neuronových sítí a je údajně datově i jazykově nezávislá. Při bližším ohledání však zjistíme, že jde opět o tradiční spojení metody frekvenční analýzy a vazeb mezi slovy textu a je tudíž závislá na typu přirozeného jazyka. Oproti běžným vyhledávacím strojům, srovnávajícím jednotlivá slova dotazu se slovy textu, rozšiřuje technologie APRP možnosti o morfologickou analýzu: analyzuje slova na kořenové úrovni, rozšiřuje slova dotazu o synonymické a homonymické výrazy, využívá slovníku idiomů apod. Stručně řečeno u obou systémů, zaštiťujících se podobností svých algoritmů s procesy probíhající v mozku člověka, je používána vylepšená klasická, půlstoletí stará Luhnova metoda frekvenční analýzy.

Proč se jednoduché a donedávna účinné zásady analýzy textu a práce s ním nesetkávají dnes s úspěchem? V době, kdy bylo problémem vůbec nalézt obsahově podobný text, nezdálo se být získání určitého počtu nerelevantních textů problémem. Síla Saussurova modelu, který se opíral o představu konvenčního významu slov, o systém jazyka zbaveného vztahu ke konkrétní řeči a o víru, že výše zmíněné problémy jsou řešitelné programovým zabezpečením synonymické a homonymické struktury jazyka, dodnes pomáhá nepatrně zlepšovat efektivnost informačních systémů, avšak zásadní zvýšení inteligence informačních systémů touto cestou pravděpodobně vyřešit nelze. Cesta k simulaci mentálních procesů člověka asi povede jiným směrem. "Vrátíme-li se k mluvenému nebo živému jazyku, zjišťujeme, že jeho vyjadřovací hodnota není sumou výrazových hodnot, jež by samy přinášely každému prvku "verbálního řetězce. … Jestliže jazyk něco chce říci a říká, není to proto, že každý znak je nositelem určitého významy, jen jemu příslušející, nýbrž proto, že všechny znaky dohromady odkazují na určitý význam …. Každý ze znaků vyjadřuje něco jen poukazem na určitý mentální aparát, na určité uspořádání našich kulturních nástrojů. " (4, s. 98-99)

Uvedené pojetí zpochybňuje představu o jednoznačném vztahu mezi slovy textu a jejich významem. Uvážíme-li, že na této víře jsou klasické metody založeny, dojdeme k závěru, že jednoduché metody, jako je frekvenční či síťová analýza, nelze při řešení složitějších systémů s úspěchem použít.

V kontrastu k přístupu, který nahlíží text jako jednoduchou stavebnicovou strukturu, v níž se přisuzuje člověku schopnost skládat prvky jazyka s přesně vymezeným významem na principu výběru a kombinace do vyšších celků, je dnes preferován přístup, který schopnost tvořit věty nebo jim rozumět při komunikaci, přisuzuje určitému celostnímu chápání, jež se opírá o vztahy kontextové: framy, gestalty, rámcové interpretace, symbolická universa (jak rozličným způsobem různí autoři pojmenovali elementární heuristické přístupy při recepci textu či komunikaci).

L. Wittgenstein jako jeden z prvních dospěl k závěru, že pojmenování samo o sobě není významodárné, že význam nějakého slova se tvoří teprve při jeho použití v řeči. Jak tvorba, tak percepce významu je vždy záležitostí určité aktivní hry se slovy. Jednotlivá slova, která používáme nebo slyšíme, nejprve spojujeme s jejich slovníkovými významy. Teprve, když se dostanou do kontextu s ostatními slovy, nabývají významu, který jim přisoudil autor. Tuto transformaci významů můžeme pozorovat zejména při čtení děl obtížnějších autorů. Zpočátku se snažíme postupovat při četbě na základě konvenčních významů. Později pociťujeme, jak se významy proměňují právě na základě četbou získaných framů, gestaltů a na konci četby, čteme–li pozorně, jsme plně v  zajetí konstrukcí významů slov, který jim přisoudil autor.

Aby se odlišil význam, který mu přisoudila konvence od významu jaký získává v kontextu, nahrazuje se někdy pojem význam pojmem smysl. L. S. Vygotskij mluví o zákonu dynamiky smyslu. Slovo podle tohoto zákona "přejímá z celého kontextu, do něhož je zapojeno, intelektuální a afektivní významy a začíná označovat více i méně, než je obsaženo v jeho významu, když je rozebíráme izolovaně a vně kontextu." (5, s. 282)

Nástroje, modely napomáhající porozumění textu, nazývají různí autoři (E. Goffman, G. Bateson, K. Popper) různě: framy, gestalty, rámcové interpretace, symbolická universa. Jejich společným znakem je snaha nahradit elementaristické, stavebnicové pojetí jazyka pojetím celostním. (http://www.global-vision.org/bateson.html), (http://www.nova.edu/sss/QR/QR2-2/rfa.html) (http://anatomy.usyd.edu.au/da…ok-reviews/h/Mind_and_nature.html)

Pro pojetí, které namísto analýzy jednotlivých slov textu se pokouší dospět k porozumění toho, co výrok, text pro příjemce to znamená, jakou výzvu evokuje pro jeho rozhodování, komunikaci, jednání, se zatím vytvářejí specifické metody. Jednou z nich, je metoda Recursive Frame Analysis umožňuje vyčíst z dialogu (např. lékař – pacient) to, co tazatel skutečně myslí na pozadí toho, co říká a jak jeho komunikačnímu chování skutečně rozumět.

Zatím není snadné poskytnout příklady konkrétních systémů, ale tento trend k hlubšímu porozumění komunikaci a informaci v ní obsažené, procesu změny informace ve znalost, se ukazuje jako přínosný např. u systémů simulujících herní situace. Autoři systémů, simulujících např. šachovou hru, se dlouhou dobu pokoušeli algoritmizovat hru podobným (tzn. stavebnicovým) způsobem, jako autoři vyhledávacích či překladových systémů, to znamená uložit posloupnost tahů nejúspěšnějších partií a nechat při každém tahu soupeře spočítat výhody, které mu ten či jiný vývoj přinese.

Zpočátku mohly počítače jen s obtížemi porazit silnějšího soupeře. Teprve, když se podařilo překonat tento stavebnicový přístup a do algoritmu byly zabudovány principy porozumění tomu, co pozice pro hráče znamená (posiluje se pozice královského křídla, zeslabuje se prostor pohyb figur apod.), získaly počítačové systémy vyšší inteligenci a mohly konkurovat největším mistrům. (S. Polgar, komentující zápas A. Kasparov – Deep Blue: doslovně: "… the computer made many moves that were based on understanding chess, on feeling the position.") Lze namítnout, že prozatím existuje malá naděje na realizaci toho, co se podařilo u jednodušších herních systémů. Systémy pracující s přirozeným jazykem a simulující složité mentální procesy bude samozřejmě nesrovnatelně obtížnější algoritmizovat.

Není však příčinou určitého zaostávání teorie za možnostmi výpočetní techniky právě nedostatek spolupráce mezi společenskými vědami a vědou o informacích? Bibliografie: 1. SEARLE, J.R. Mysl, mozek a věda. Praha : Mladá fronta, 1994. 129 s.

2. LUHN, H.P. The automatic creation of literature abstract. IN : IBM J. Res and Develop. , Roč. 2, č. 2, (1957), s. 159-165.

3. ARTANDI,S. SYNTOL – a new systém for organization of information. IN : Libr. Res. and Text Services , Roč 9, č. 4, (1965) s. 473-477

4. MERLEAU-PONTY, M. Oko a duch a jiné eseje. Praha : Obelisk, 1971. 221 s.

5. VYGOTSKIJ, L.S. Myšlení a řeč. Praha : SPN, 1976. 293 s.

Jonák, Zdeněk. Krize mezilidské komunikace v období komunikační a informační exploze. Ikaros [online]. 1999, roč. 3, č. 5 [cit. 18.12.2014]. Dostupný na World Wide Web: <http://www.ikaros.cz/node/351>. urn:nbn:cz:ik‐000351. ISSN 1212-5075.
Průměr: 3.3 (hlasů: 6)

automaticky generované reklamy