velikol.ru
1

Тема. Информация и её измерение.

Цели:

  • обобщить смысл понятия «информация»;

  • рассмотреть существующие подходы к измерению количества информации;

  • сформулировать и обобщить смысл минимальной единицы измерения информации;

  • рассмотреть задачи на расчёт информационного объёма с позиции алфавитного подхода и выражение его в различных единицах измерения информации.


Интеграция: математика, философия, история.

Оборудование: медиапроектор.

^ Раздаточный материал: задачи к уроку, задачи на дом, информационный буклет.

Ход урока.

  1. Организационный момент. Знакомство.
    Здравствуйте, ребята! Сегодня у вас не совсем обычный урок информатики. Необычен он тем, что вести его буду я , Мурзакова Елена Сергеевна, учитель информатики и математики шестой школы. Надеюсь, он станет для вас необычным и интересным и по своему содержанию. Моими помощниками на этом уроке станет информационная презентация, тексты задач, информационный буклет. Ну, а главными помощниками станете, конечно, вы!

  2. ^ Целевая установка.
    Сегодня на уроке мы будем говорить об информации и её измерении. Вы спросите: что же в этом необычного? Я постараюсь вместе с вами выяснить с позиции разных наук и сфер человеческой деятельности многогранность понятие «информация» и природу её измерения. Итак, перед нами два вопроса:
    1. Что такое информация?
    2. Как её измерить?

  3. Основная часть.

    1. Информация… Как часто мы слышим и произносим это слово? А давайте попробуем его определить.

      1. Что, по-вашему, означает информация в нашей повседневной жизни?

      2. Что такое генетическая информация?

      3. Что представляет собой информация в памяти компьютера?
        Мы получили разные по определению и представлению понятия. Какой же вывод?
        Вывод: информацию нельзя определить однозначно. Также как нельзя в биологии определить жизнь, в медицине – здоровье, в геометрии – точку, прямую и плоскость, в физике – материю и вещество. Это основное понятие, оно первично, и его первичность его определяет.
        Но в быту, в повседневной жизни информацией принято считать сведения об объектах и явлениях окружающего мира. На первый вопрос мы получили ответ. Как же измерить то, что не определено?

    2. К вопросу измерения информации как некоторого знания подходили древнегреческие философы и пришли к парадоксальному выводу. Если рассмотреть знание как некоторую область, например, область круга, а границу, т.е. линию, окружность как границу между знанием и незнанием, то получается, что чем больше знание, тем больше граница незнания. Маленькое знание, маленькая граница, маленькое и незнание. Действительно, пока ваши знания были ограничены знаниями начальной школы, узок был и круг вашего незнания. Узнав о существовании таких предметов как физика, химия, вы расширили и круг своего незнания.

    3. К вопросу измерения информации с более чёткими задачами подошёл и человек уже в 20 веке. Как измерить информацию в обыденной жизни, в быту?
      Информация о том, что этого юношу зовут ….. для него не имеет смысла, зато для меня это очень ценная информация, она позволит мне более комфортно с ним общаться. Какой же напрашивается вывод? Можно ли измерить информацию в быту с точки зрения её полезности и новизны? Вывод: нельзя.
      Итак, измерить информацию в быту с точки зрения её полезности и новизны нельзя.

    4. Но вопрос потребовал ответа и ответ попытались найти и нашли именно математики, ведь неизвестно, где кончается математика и начинается информатика. Поговорим о втором подходе к измерению информации – вероятностном подходе.
      Человек часто оказывается в ситуации, когда ему нужно сделать выбор, и часто, не имея смелости принять решение, он полагается на судьбу – бросает монету. До броска монеты у него два возможных случая её падения: орёл или решка. После броска – одна из ситуаций. Говорят, что в этом случае начальная неопределённость знаний уменьшилась в два раза. А человек получил информацию в 1 бит. Так появилась первая единица измерения информации. Очень долго это единица называлась «двоичной цифрой». В 1947 году математик Джон Таки предложил использовать термин «бит», сокращённое название от английского варианта слов «двоичная цифра». Ну, а «привязал» количество информации к числам американский инженер Ральф Хартли. Он связал количество возможных событий с количеством информации при выпадении одного из них формулой, которая носит его имя: N – количество равновероятных событий, i - количество информации (бит) при выпадении одного из них.
      N=2i. Эта замечательная формула позволяет решать интересные задачи. Задача с пирамидой. Определим алгоритм решения таких задач.
      Алгоритм решения:
      1. Выделить количество возможных событий, по условию задачи.
      2. Воспользоваться формулой Хартли.
      Предлагаю рассмотреть задачи. Задание1. Для их решения удобно пользоваться таблицей степенней числа 2. Решение с последующим анализом.

    5. Одной и такой маленькой единицы измерения информации, конечно, недостаточно. И вы уже знакомы с другими, более весомыми единицами измерения информации.

    6. Давайте проверим, насколько близко и тепло вы с ними знакомы. Задание 2. Один человек у доски. Проверка на слайде. Подведение итогов.
      Давайте попробуем «потрогать» биты и байты руками, свяжем их с осязаемыми понятиями. Это интересно. Буклет, слайд.
      Задачи, которые мы рассмотрели подразумевают равновероятностные события. Пытливый человеческий ум не мог оставить вопрос измерения количества информации для событий, которые не являются равновероятностными. Американский учёный, математик, инженер Клод Шеннон решил этот вопрос. Но вы сможете познакомиться с его формулой немного позже, когда расширите багаж своих математических знаний понятием логарифма. Надеюсь, что вы обязательно вернётесь к этому непростому, но очень интересному вопросу, может быть в школе, или в период дальнейшего обучения. Я по-доброму вам завидую, потому что эту радость познания вам ещё предстоит испытать.

    7. Ральф Хартли и Клод Шеннон внесли в свой вклад в теорию измерения информации. Но нужен был новый подход в измерении информации – подход, который позволил бы измерить информацию, не связывая её количество с содержанием, для использования его в техническом устройстве. Итакой подход возник. Так называемый, алфавитный подход. Основные понятия: мощность алфавита (количество символов) - N, количество информации на один символ – i, количество символов в слове. Разберём его суть на примере русского алфавита. Для удобства положим, е=ё, тогда количество букв в русском алфавите будем считать равным 32. По формуле Хартли найдём количество бит на один символ, считая буквы равновероятностными событиями. Получим, 32=2i значит, i=5 бит. Тогда например, слово знание из 6 букв несёт информацию, равную 5*6=30 бит или 3,75 байт. Напрашивается вывод, что любое слово из 6 букв, независимо от его смыслового значения будет нести информацию в 30 бит.
      Рассмотрим задачи. Задание 3. Обсуждение решения.

    8. Итак, подведём итоги.

      1. Можно ли однозначно сказать, что такое информация?

      2. Какие подходы существуют к измерению информации?

      3. Какие существуют единицы измерения информации?

      4. Зависит ли количество информации при алфавитном подходе от её содержания?

  4. Вы хорошо поработали и я с удовольствием отмечу работу на уроке оценкой «5» следующих учеников…..Среди раздаточного материала вы найдёте домашнее задание, состоящее из задач, подобных тем, которые мы решали на уроке. Найдёте вы и ответы к ним, но представленные в различных системах счисления. Чтобы проверить себя придется поработать дополнительно. Я думаю, Алия Нуховна проверит и оценит вашу работу.

  5. Да, при измерении информации её количество не зависит от содержания. При измерении количества информации в русском алфавите, мы выяснили, что один символ несёт 5 бит. Давайте измерим емкость слов «милосердие» и «равнодушие».В каждом слове по 10 букв, значит, каждое из них несёт по 50 бит информации. А какое разное значение у этих слов! Мы живём в век машин, которые диктуют свои законы к измерению информации. Но очень важно помнить, что для человека любая информация имеет нравственный оттенок и что не существует информации, нейтральной по отношению к нравственности: всякая информация имеет нравственную составляющую. И человек никогда не уступит своё превосходство машинам. А потому, давайте помнить о том, что каждое наше слово – это информация, выраженная не только и не столько битами и байтами.

  6. Закончить мою мысль мне поможет замечательное стихотворение Владимира Солоухина.
    Когда ты хочешь молвить слово,
    Мой друг, подумай, не спеши.
    Оно бывает то сурово,
    То рождено теплом души.
    Оно то жаворонком вьётся,
    То медью траурной поёт.
    Покуда слово сам не взвесишь,
    Не отправляй его в полёт.
    Им можно радости прибавить,
    И радость людям отравить.
    Им можно лёд зимой расплавить,
    И камень в крошку раздробить.
    Оно одарит, и ограбит,
    Пусть ненароком, пусть шутя.
    Подумай, как бы им не ранить, того, кто слушает тебя!
    Спасибо за урок!