РГР по информатике
Ответы на вопросы по заказу заданий по информатике:
Сколько стоит помощь?
- Цена зависит от объёма, сложности и срочности. Присылайте любые задания по любым предметам - я изучу и оценю.
Какой срок выполнения?
- Мне и моей команде под силу выполнить как срочный заказ, так и сложный заказ. Стандартный срок выполнения – от 1 до 3 дней. Мы всегда стараемся выполнять любые работы и задания раньше срока.
Если требуется доработка, это бесплатно?
- Доработка бесплатна. Срок выполнения от 1 до 2 дней.
Могу ли я не платить, если меня не устроит стоимость?
- Оценка стоимости бесплатна.
Каким способом можно оплатить?
- Можно оплатить любым способом: картой Visa / MasterCard, с баланса мобильного, google pay, apple pay, qiwi и т.д.
Какие у вас гарантии?
- Если работу не зачли, и мы не смогли её исправить – верну полную стоимость заказа.
В какое время я вам могу написать и прислать задание на выполнение?
- Присылайте в любое время! Я стараюсь быть всегда онлайн.
Содержание:
- Ответы на вопросы по заказу заданий по информатике:
- Меры информации
- Меры информации синтаксического уровня
- Условие РГР
При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику (получателю) (см. рис. 1.2). При этом для передачи информации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволяющие выразить ее в некоторой форме, называемой сообщением.
Сообщение — форма представления информации в виде совокупности знаков (символов), используемая для передачи.
Сообщение как совокупность знаков с точки зрения семиотики (от греч. semeion — знак, признак) — науки, занимающейся исследованием свойств знаков и знаковых систем, может изучаться на трех уровнях [8]:
- синтаксическом, где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы. Внешние свойства изучают на семантическом и прагматическом уровнях;
- семантическом, где анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации;
- прагматическом, где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю.
Таким образом, учитывая определенную взаимосвязь проблем передачи информации с уровнями изучения знаковых систем, их разделяют на три уровня: синтаксический, семантический и прагматический.
Возможно, вас также заинтересует эта ссылка:
Проблемы синтаксического уровня касаются создания теоретических основ построения информационных систем, основные показатели функционирования которых были бы близки к предельно возможным, а также совершенствования существующих систем с целью повышения эффективности их использования. Это чисто технические проблемы совершенствования методов передачи сообщений и их материальных носителей — сигналов. На этом уровне рассматривают проблемы доставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п., полностью абстрагируясь от смыслового содержания сообщений и их целевого предназначения. На этом уровне информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как смысловая сторона при этом не имеет значения.
Современная теория информации исследует в основном проблемы именно этого уровня. Она опирается на понятие «количество информации», являющееся мерой частоты употребления знаков, которая никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что теория информации находится на синтаксическом уровне.
Проблемы семантического уровня связаны с формализацией и учетом смысла передаваемой информации, определения степени соответствия образа объекта и самого объекта. На данном уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи, формируются понятия и представления, выявляется смысл, содержание информации, осуществляется ее обобщение. Проблемы этого уровня чрезвычайно сложны, так как смысловое содержание информации больше зависит от получателя, чем от семантики сообщения, представленного на каком-либо языке. На прагматическом уровне интересуют последствия от получения и использования данной информации потребителем.
Возможно, вас также заинтересует эта ссылка:
Проблемы этого уровня связаны с определением ценности и полезности использования информации при выработке потребителем решения для достижения своей цели. Основная сложность здесь состоит в том, что ценность, полезность информации может быть совершенно различной для различных получателей и, кроме того, она зависит от ряда факторов, таких, например, как своевременность ее доставки и использования.
Высокие требования в отношении скорости доставки информации часто диктуются тем, что управляющие воздействия должны осуществляться в реальном масштабе времени, т. е. со скоростью изменения состояния управляемых объектов или процессов. Задержки в доставке или использовании информации могут иметь катастрофические последствия.
Меры информации
Для каждого из рассмотренных выше уровней проблем передачи информации существуют свои подходы к измерению количества информации и свои меры информации. Различают соответственно меры информации синтаксического уровня, семантического уровня и прагматического уровня.
Меры информации синтаксического уровня
Количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи с этим данная мера дает возможность оценки информационных потоков в таких разных по своей природе объектах, как системы связи, вычислительные машины, системы управления, нервная система живого организма и т. п.
Для измерения информации на синтаксическом уровне вводятся два параметра: объем информации (данных) — (объемный подход) и количество информации — (энтропийный подход). Объем информации (объемный подход). При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Так как одна и та же информация может быть представлена многими разными способами (с использованием разных алфавитов), то и единица измерения информации (данных) соответственно будет меняться.
Так, в десятичной системе счисления один разряд имеет вес, равный 10, и соответственно единицей измерения информации будет дит (десятичный разряд). В этом случае сообщение в виде п-разрядного числа имеет объем данных Например, четырехразрядное число 2003 имеет объем данных В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет — бит (bit — binary digit — двоичный разряд). В этом случае сообщение в виде л-разрядного числа имеет объем данных бит. Например, восьмиразрядный двоичный код 11001011 имеет объем данных бит.
В современной вычислительной технике наряду с минимальной единицей измерения данных «бит» широко используется укрупненная единица измерения «байт», равная 8 бит. При работе с большими объемами информации для подсчета ее количества применяют более крупные единицы измерения, такие как килобайт (Кбайт), мегабайт (Мбайт), гигабайт (Гбайт), терабайт (Тбайт):
.
Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками «кило», «мега» и т. д. получаются путем умножения основной единицы не на и т. д., а на и т. д.
Количество информации I (энтропийный подход). В теории информации и кодирования принят энтропийный подход к измерению информации. Этот подход основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Исходя из этого количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.
Возможно, вас также заинтересует эта ссылка:
Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т. д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия а количество информации равно:
(1)
где — априорная энтропия о состоянии исследуемой системы или процесса.
— апостериорная энтропия.
Апостериори (от лат. a posteriori — из последующего) — происходящее из опыта (испытания, измерения). Априори — (от лат. a priori — из предшествующего) — понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него.
В случае когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат, т. е. ), количество полученной информации совпадает с первоначальной энтропией
Рассмотрим в качестве исследуемой системы дискретный источник информации (источник дискретных сообщений), под которым будем понимать физическую систему, имеющую конечное множество возможных состояний
- Все множество состояний системы в теории информации называют абстрактным алфавитом, или алфавитом источника сообщений. Отдельные состояния называют буквами или символами алфавита.
Такая система может в каждый момент времени случайным образом принять одно из конечных множеств возможных состояний — аг При этом говорят, что различные состояния реализуются вследствие выбора их источником.
Поскольку одни состояния выбираются источником чаще, а другие реже, то в общем случае он характеризуется ансамблем А, т. е. полной совокупностью состояний с вероятностями их появления, составляющими в сумме единицу:
(2.1)
Введем меру неопределенности выбора состояния источника. Ее можно рассматривать и как меру количества информации, получаемой при полном устранении неопределенности относительно состояния источника. Мера должна удовлетворять ряду естественных условий. Одним из них является необходимость монотонного возрастания с увеличением возможностей выбора, т. е. числа возможных состояний источника N, причем недопустимые состояния (состояния с вероятностями, равными нолю) не должны учитываться, так как они не меняют неопределенности.
Возможно, вас также заинтересует эта ссылка:
Ограничиваясь только этим условием, за меру неопределенности можно было бы взять число состояний, предположив, что они равновероятны.
Однако в этом случае при N= 1, когда неопределенность отсутствует, такая мера давала бы значение, равное единице. Кроме того, она не отвечает требованию аддитивности, состоящему в следующем. Если два независимых источника с числом равновероятных состояний N и М рассматривать как один источник, одновременно реализующий пары состояний то естественно предположить, что неопределенность объединенного источника должна равняться сумме неопределенностей исходных источников. Поскольку общее число состояний объединенного источника равно NM, то искомая функция должна удовлетворять условию:
(2.2)
Соотношение (2.2) выполняется, если в качестве меры неопределенности источника с равновероятными состояниями и характеризующего его ансамбля А принять логарифм числа состояний:
(2.3)
Тогда при и требование аддитивности выполняется.
Указанная мера была предложена американским ученым Р. Хартли в 1928 г. Основание логарифма в формуле (2.3) не имеет принципиального значения и определяет только масштаб или единицу измерения. В зависимости от основания логарифма применяют следующие единицы измерения:
- 1. Биты — при этом основание логарифма равно 2: (2.4)
- 2. Наты — при этом основание логарифма равно
- 3. Диты — при этом основание логарифма равно 10:
Так как современная информационная техника базируется на элементах, имеющих два устойчивых состояния, то в информатике в качестве меры неопределенности обычно используют формулу (2.4). При этом единица неопределенности называется двоичной единицей, или битом, и представляет собой неопределенность выбора из двух равновероятных событий.
Формулу (2.4) можно получить эмпирически: для снятия неопределенности в ситуации из двух равновероятных событий необходим один опыт и соответственно один бит информации, при неопределенности, состоящей из четырех равновероятных событий, достаточно двух бит информации, чтобы угадать искомый факт. Эти рассуждения можно продолжить: 3 бита информации соответствуют неопределенности из 8 равновероятных событий, 4 бита — 16 равновероятных событий и т. д. Например, для определения карты из колоды, состоящей из 32 карт, достаточно 5 бит информации, т. е. достаточно задать 5 вопросов с ответами «да» или «нет», чтобы определить искомую карту.
Таким образом, если сообщение указывает на один из л равновероятных вариантов, то оно несет количество информации, равное Действительно, из наших примеров и т. д. Ту же формулу можно словесно выразить иначе: количество информации равно степени, в которую необходимо возвести число 2, чтобы получить число равновероятных вариантов выбора, т. е. (бита). Предложенная мера позволяет решать определенные практические задачи, когда все возможные состояния источника информации имеют одинаковую вероятность.
Возможно, вас также заинтересует эта ссылка:
В общем случае степень неопределенности реализации состояния источника информации зависит не только от числа состояний, но и от вероятностей этих состояний. Если источник информации имеет, например, два возможных состояния с вероятностями 0,99 и 0,01, то неопределенность выбора у него значительно меньше, чем у источника, имеющего два равновероятных состояния, так как в этом случае результат практически предрешен (реализация состояния, вероятность которого равна 0,99).
Американский ученый К. Шеннон обобщил понятие меры неопределенности выбора на случай, когда зависит не только от числа состояний, но и от вероятностей этих состояний (вероятностей выбора символов алфавита А). Эту меру, представляющую собой неопределенность, приходящуюся в среднем на одно состояние, называют энтропией дискретного источника информации. (2.5) Если снова ориентироваться на измерение неопределенности в двоичных единицах, то основание логарифма следует принять равным двум.
(2.6)
При равновероятных выборах все и формула (2.6) преобразуется в формулу Р. Хартли (2.3):
Предложенная мера была названа энтропией не случайно. Дело в том, что формальная структура выражения (2.5) совпадает с энтропией физической системы, определенной ранее Больцманом. Согласно второму закону термодинамики энтропия И замкнутого 1 N т,пространства определяется выражением: где — число молекул в данном пространстве; mi — число молекул, обладающих скоростью Так как есть вероятность того, что молекула имеет скорость то Н можно записать как Данная формула полностью совпадает с (2.5) — в обоих случаях величина характеризует степень разнообразия системы. Используя формулы (2.4) и (2.6), можно определить избыточность D алфавита источника сообщений — которая показывает, насколько рационально применяются символы данного алфавита:
(2.7)
где — максимально возможная энтропия, определяемая по формуле (2.4); — энтропия источника, определяемая по формуле (2.6).
Суть данной меры заключается в том, что при равновероятном выборе ту же информационную нагрузку на знак можно обеспечить, используя алфавит меньшего объема, чем в случае с неравновероятным выбором.
Пример. Согласно экспериментальным данным безусловные вероятности букв русского и английского алфавитов характеризуются табл. 2.1 и 2.2 соответственно. Требуется найти энтропии источников А1 и А2, выдающих текст из букв русского и английского алфавитов соответственно, при отсутствии статистических связей между буквами, а также вычислить избыточность источников, выдающих тексты, обусловленную неравновероятностью выбора букв.
Решение. Найдем энтропии источников А1 иА2, используя формулу (2.6).
По формуле (2.4) находим:
Избыточность источников находим по формуле (2.7):
Полученные результаты позволяют сделать вывод о том, что избыточность, а следовательно, и неравномерность распределения вероятностей букв источника А2 — латинского алфавита больше, чем у источника А1 — русского алфавита.
Возможно, вас также заинтересует эта ссылка:
Условие РГР
Некоторые компании являются совладельцами других компаний, так как приобрели часть их акций. Например, компания Форда владеет 12% акций компании Мазда. Говорят, что компания А контролирует компанию В, если имеет место по меньшей мере одно из следующих условий:
1)
2) владеет акций
3)А контролирует компаний таких, что компания владеет соответственно акций компании В (для всех от 1 до ), и
Задача, которую надо решить, заключается в следующем.
Дана последовательность троек чисел означающих, что компания владеет акций компании Требуется определить все пары чисел при которых компания контролирует компанию Общее число компаний не превышает 100. Напишите программу, которая:
1. Читает из входного -файла с именем COMPANY. DAT последовательность троек где и — положительные целые числа. В файле могут содержаться последовательности троек чисел для нескольких тестов. Различные тестовые последовательности разделены пустой строкой.
2. Находит все пары чисел такие, что компания контролирует компанию
3. Записывает в выходной -файл с именем COMPANY . SOL все обнаруженные пары чисел в которых отличается от Пары надо записать в последовательных строках в порядке возрастания (каждая пара записывается в отдельной строке). Решения для различных тестовых наборов данных должны разделяться пустой строкой.
Пример.
Идея решения
Входные данные для этой задачи опишем матрицей А, элемент которой означает, сколькими процентами акций компании владеет (непосредственно) компания Суть решения задачи однозначно описывается комментариями к действиям процедуры
Для рассматриваемой компании элемент массива указывает, сколькими процентами акций компании компания владеет непосредственно либо через контролируемые ею компании. Как только этот процент превысит 50, компания j также оказывается контролируемой, и ее акции добавляются в массив В. Заметим, что отношение контролирования рефлексивно (т. е. каждая компания контролирует саму себя) и транзитивно (т. е. из того, что А контролирует В и В контролирует С, следует, что А контролирует С).
Методическое отступление. Задание по «ручной» трассировке логики процедуры Solve по данным из формулировки задачи будет вполне уместно для осознания школьниками сути представленного алгоритма.
Возможно, вас также заинтересует эта ссылка: