Читать реферат по информатике, вычислительной технике, телекоммуникациям: "Понятие информации" Страница 1

назад (Назад)скачать (Cкачать работу)

Функция "чтения" служит для ознакомления с работой. Разметка, таблицы и картинки документа могут отображаться неверно или не в полном объёме!

План: I. 1. Введение.

2. Понятие «информация»:

2.1. В физике.

2.2. В биологии.

2.3. В кибернетике.

3. Представление информации.

4. Каналы передачи информации.

5. Локальные компьютерные сети.

6. Хранение информации.

7. Заключение.

II. Практическая часть.

III. Формула.

Введение. Революция в автоматизации делопроизводства в офисе в 80-е годы прошлого века стала реально возможна в связи с созданием и широким распространением персональных компьютеров. Персональные компьютеры в первую очередь вытеснили из обращения печатающие машинки, составляющие основу технических средств подготовки печатных документов. Преимущества компьютера, оснащенного специальным текстовым процессором (редактором), перед печатающей машинкой были явными и заключались в том, что обеспечивали значительное повышение удобства, производительности выполнения работ и, самое главное, повышение качества получаемых при этом документов. Разделение во времени этапов подготовки документа, таких, как ввод, редактирование, оформление, подготовка к печати и собственно сама печать сделали процесс создания документа более простым и технологичным. Понятие «информация».Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление.

Информация может существовать в виде:

    текстов, рисунков, чертежей, фотографий; световых или звуковых сигналов; радиоволн; электрических и нервных импульсов; магнитных записей; жестов и мимики; запахов и вкусовых ощущений; хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Современные компьютеры могут работать с пятью видами информации:

      числовой; текстовой; графической; звуковой; видеоинформацией.

Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и так далее).

Таким образом, в физике информация рассматривается как антиэнтропия или энтропия с обратным знаком.

Информация в биологии. В биологии понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие


Интересная статья: Быстрое написание курсовой работы