В нашей стране термин “информатика” утвердился с 1983 года с принятием на сессии годичного собрания Академии наук СССР решения об организации нового Отделения информатики, вычислительной техники и автоматики.
В 1985 года в школу введен предмет ОИВТ
Информатика в школе
Человек, являясь частью живой Природы, активно её осваивает:
Макромир
Н.Н. Моисеев
? ? ? Информация ? ? ?
«… я уверен, что строгого и достаточно универсального определения информации не только нет, но и быть не может. Это понятие чересчур широко.»
«…если мы начинаем изучать деятельность живого организма, стремящегося сохранить свой гомеостаз и формирующего для этого петли обратной связи, помогающие ему лучше согласовать свое поведение с окружающей обстановкой, то без понятия информации обойтись уже нельзя – нельзя в принципе! Но для этого достаточно интуитивного, житейского определения информации.»
Н.Н. Моисеев
Информация – это сведения об окружающем мире, которые повышают уровень осведомленности человека.
...оценка информации носит субъективный характер, поскольку зависит от способности субъекта ею воспользоваться.
...бессмысленно говорить о ценности информации как о некоторой абсолютной характеристике.
Только тогда, когда существует четко
поставленная цель и алгоритм принятия
решения, полностью раскрываются значение,
ценность и смысл информации.
Н.Н. Моисеев
В вычислительной технике приняты две стандартные единицы
измерения: бит и байт. Бит – один символ двоичного алфавита.
Байт (международная система СИ) – это восьмиразрядный
двоичный код. Алфавит этого представления – 28 = 256, и включает
все символы терминала ЭВМ. В силу малости этих величин её
измеряют также в килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах.
Технический подход
Сообщение, уменьшающее неопределенность ровно вдвое, содержит единицу количества информации – бит. Один бит – это минимальное количество информации, которое показывает, что произошло одно из двух равновероятных событий.
Оценку не равновероятных событий вывел американский инженер и математик К. Шеннон в 1948 г.:
k
I ср. = - ∑ pi log 2 (pi)
i=1
Энтропия - мера объективной неопределенности успешного и неуспешного выборов. Информация находится в обратной зависимости от энтропии. Энтропия и информация рассматривают мир в соотношении хаоса и упорядоченности.
Два способа измерения информации (технический и энтропийный), как правило, не совпадают, причем энтропийное (вероятностное) количество информации не может быть больше числа двоичных символов (битов) в сообщении. Если же оно меньше этого числа, говорят, что сообщение избыточно.
Формализация – упрощение изучаемого объекта, выявление его существенных свойств с целью применения к нему единообразных правил оперирования.
Основа формальной системы представлена совокупностью из четырех элементов:
исходящим алфавитом называется то, что формализуется;
системой синтаксических правил необходимой для того, чтобы из алфавита строить синтаксически правильные конструкции;
системой аксиом для осуществления этих правил;
системой семантических – смысловых – правил наполняющих синтаксические конструкции смыслом.
Формализованная информация
Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:
Email: Нажмите что бы посмотреть