Информационное общество и международные отношения. Р. В. Болгов

Чтение книги онлайн.

Читать онлайн книгу Информационное общество и международные отношения - Р. В. Болгов страница 3

Информационное общество и международные отношения - Р. В. Болгов

Скачать книгу

для широкой публики новости.

      В Новейшем словаре иностранных слов и выражений слово «информация» соотносится с лат. informatio – разъяснение, просвещение [Новейший словарь иностранных слов и выражений, 2002, с. 352]. В Большом энциклопедическом словаре оно интерпретируется как «общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передача признаков от клетки к клетке, от организма к организму; одно из понятий кибернетики» [Большой энциклопедический словарь, 2004, с. 455].

      В двадцатом веке этот термин начали использовать в различных научных областях, где слово «информация» приобретало специфическое звучание: в математических теориях информация связана с абстрактными объектами, не существующими в физической реальности; в физике информацию рассматривают в одном ряду с веществом и энергией; в кибернетике и теории информации изучаются особенности природы, сущности и функционирования информации. В рамках этих дисциплин она рассматривается как сообщение, которое система получает из внешнего мира в процессе приспособления к нему. Биологи, генетики и психологи соотносят информацию с сигналами, импульсами и кодами (лауреат Нобелевской премии в области химии 2006 г. Р. Корнберг объяснил характер передачи генетической информации).

      Информация связана с процессами управления и развития, способствующими устойчивости и выживаемости различных систем. Информация является противоположностью энтропии. Энтропия (гр. – поворот, превращение) – одно из фундаментальных свойств любых систем с вероятностным поведением. Энтропия выступает в качестве меры беспорядка, неопределенности. По мнению К. Шеннона, энтропия уменьшается с появлением информации. Согласно его теории, существует имманентная взаимосвязь информации и энтропии, что легло в основание его метода исчисления информации и определения единицы ее количества («бит»). В соответствии с положениями теории синергетики информационные процессы, свойственные живой и неживой природе, предполагают наличие структуры, упорядоченности и организации. Эти характеристики в равной степени свойственны информационной модели человека.

      Самое общее определение информации, которое широко используется в современной философии, было предложено в 1973 г. отечественным ученым, профессором, исследователем философских проблем информатики, синергетики и кибернетики А. Д. Урсулом. Он понимает информацию прежде всего как отраженное разнообразие, нарушающее однообразие. Иными словами, информация представляет собой одно из универсальных свойств материи, отражение реального мира во всем его разнообразии.

      То, что информация принадлежит объективной действительности, признают атрибутивная и функциональная концепции информации. Согласно первой, информация выступает атрибутом материи на всех уровнях ее существования. Этот взгляд носит онтологический характер и является сегодня достаточно распространенным. Согласно второй, информация функционирует в самоуправляемых и самоорганизующихся

Скачать книгу