3.12. Заметки по поводу понятия информации

(01-09-2010 22:40) 

3.12. Заметки по поводу понятия информации (фрагменты).

Существует мнение, что информация не требует определения, то ли из-за своей самоочевидности, то ли наоборот, из-за особой сложности, причем оба выводы имеют под собой веские основания. На наш взгляд, даже самые фундаментальные понятия конкретных наук надо определять, правда, при этом мы выходим за пределы частных отраслей знания и вступаем в сферу философских категорий, которым свойственна еще большая обобщенность и которые кристаллизуют в себе тысячелетнюю историю познания. Заметим, что даже эти категории можно определять одну через другую, точнее, через все другие, рассматривая процесс познания как целостный и динамичный.

К. Э. Шеннон определял информацию как натуральный логарифм величины, характеризующей множество возможных выборов или вариантов состояния некоторой системы (вероятностная мера информации). Он также дал содержательную интерпретацию этой формулы: информация – то, что уменьшает неопределенность. У. Р. Эшби предложил свое понимание понятия. По его мнению, это мера разнообразия или неоднородности среды.

Один из специалистов в области теории систем – Л. Берталанфи – дает определение информации «как некоторого количества, измеряемого через отношение, изоморфное отрицательной энтропии в физике» (1969, с.29). Известно, что, например, при росте равновесия, симметрии в некоторой системе энтропия также возрастает. Кроме того, при росте симметрии увеличивается роль причинно-следственной связи, линейного детерминизма и необходимости. Необходимость и вероятность определенного состояния системы тем больше, чем больше его симметрия.

                                                                                   ***

Итак, имеем два противоположных определения: информация как мера разнообразия (неоднородности) среды - информация как то, что снимает неопределенность в результате сообщения (информация в узком смысле).

Первая дефиниция, как нам кажется, больше подходит для информации, содержащейся в объектах, системах самих по себе, учитывая их внутренние процессы, которые изучают синергетика, теория катастроф и др. Она охватывает весь диапазон состояний системы между указанными крайними полюсами и имеет, на наш взгляд, динамичный характер. Вторая же подчеркивает аспект передачи информации, взаимодействия с другими объектами, системами, больше касается процессов, изучаемых теорией информации и кибернетикой. Мы считаем целесообразным разграничить эти два понимания информации, применяя каждое из них (по очереди или параллельно) на соответствующем этапе исследования психики.
                                                                                   ***

Вспомним, что в теории информации существует деление тотальной информации на сигналы, символы и шумы. Информация, которая попадает на самые неразвитые, недифференцированные наши функции, воспринимается нами как «шумы» или «помехи». В таких случаях человек либо игнорирует их, либо раздражается, тревожится, испытывает неясные чувства, не знает, как правильно отреагировать, считает такие сообщения «неинформативными», «нечеткими». То, что попадает на более-менее развитые, осознаваемые и управляемые функции, различается, как сигналы и знаки. Это и есть то, что мы субъективно считаем для себя информативным, на что привычно обращаем внимание. Хотя и здесь по определенным функциям возможна информационная перегрузка, но все же информация в принципе может обрабатываться нашим Я. Если же информация по своей сложности и многомерности превышает размерность нашего сознания, то для нас она будет уже совокупностью неких могущественных символов, не поддающихся однозначному толкованию и разложению на составляющие. Длительное нахождение в таком сверхсознательном потоке для большинства людей тоже невыносимо и даже опасно. Управляемое и сбалансированное взаимодействие сознательного Я с символической информацией, наоборот, стимулирует процессы творчества и личностного развития.

В начало книги >>>

Back to top

карта сайта