Главная

Категории:

ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника






Правовые основы информатизации.


Известно, что в рамках программы правовой информатизации России решается двуединая задача: информатизация правовой сферы, с одной стороны, и правовое обеспечение информационных процессов и информатизации, с другой. Для решения этих задач намечены следующие основные направления информатизации правовой сферы и законодательного регулирования процессов информатизации:

· информатизация правотворчества;

 

· информатизация правоприменительной деятельности;

 

· информатизация правоохранительной деятельности;

 

· информатизация правового образования и воспитания;

 

· правовое обеспечение процессов информатизации.

 

3.Природа, сущность и свойства информации. Основные определения понятия информации.

Информация в сущности представляет собой амбивалентный феномен, выражающий смыслы в коммуникабельной знаковой форме. В этой формулировке отражены сущностные свойства феномена информации: субстанциональность – амбивалентная природа – и функциональность – выражение смыслов в коммуникабельных знаках.

 

Свойства информации:

1. Объективность – не зависит от чего-либо мнения.

 

2. Достоверность – отражает истинное положение дел.

 

3. Полнота – достаточна для понимания задачи и принятия решения.

 

4. Актуальность – важна и существенна для настоящего времени.

 

5. Ценность (полезность, значимость) обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения.

 

6. Понятность (ясность) - выражена на языке, доступном получателю.

Основные определения понятия информации.

Термин информация происходит от латинского слова informatio , что означает сведения, разъяснения, изложение. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

1. в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

2. в технике под информацией понимают сообщения , передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

3. в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

4. в теории информации под информацией понимают сведения обобъектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

5. согласно Большому энциклопедическому словарю , информация — первоначально — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.); с сер. ХХ в. — общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму; одно из основных понятий кибернетики.

6. применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.); несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объем сообщения.

Ответы на вопросы по информатике

4 вопрос: Формы адекватности информации.

Ответ:

 

Как правило, информация должна быть адекватна образу (объекту) который она описывает.

 

Различают три формы адекватности информации:

· Синтаксическая

· Семантическая

· Прогностическая

 

5 вопрос: Семантическая мера информации. Понятие тезауруса.

Ответ:

· Семантическая мера информации отражает смысл информации и позволяет судить о соответствии информационного образа объекта и самого объекта.

· Для измерения смыслового количества информации используется тезаурус –совокупность сведений, которыми располагает пользователь или система распознавания информации.

6 вопрос: Синтаксическая мера информации. Вероятностный и объемный подход.

Ответ:

 

  • Синтаксическая форма адекватности информации характеризуется объемом данных и количеством информации, отражает формально-структурные свойства информации без учета её смысла.
  • Вероятностный подход: основывается на вероятности осуществления различный исходов действий, на неопределенности. Информация измеряется в битах и т.д. Основоположники Шеннон и Хартли. (Формула Шеннона- I = - Sum рi log2 рi, ) (Формула Хартли I = log2 K )
  • Объемный подход : Количество информации измеряется размером двоичного кода, с помощью которого эта информация представлена.

· Ответы на вопросы по информатике

· 7 вопрос: Прагматическая мера информации

·

· Ответ:

·

·

· Прагматическая мера информации Прагматическая мера информации — это полезность информации, ее ценность для пользователя (управления). Эта мера также является величиной относительной, обусловленной особенностями использования информации в той или иной системе управления. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

·

·

· 8 вопрос: Характеристика информационных процессов

·

· Ответ:

·

·

· К основным информационным процессам относятся действия с информацией: сбор; обмен; хранение; обработка; выдача.· Процесс сбора информации представляет собой деятельность субъекта, целью которой является получение сведений об интересующем его объекте. Сбор информации может производиться или человеком, или с помощью технических· Средств. Например, пользователь может получить информацию о движении поездов или самолетов сам, изучив расписание, или же от другого человека непосредственно, либо через какие-то документы, составленные этим человеком, или с помощью технических средств (интернет сайт, телефона и т. д.)· Обмен информацией представляет собой процесс, в ходе которого источник информации ее передает, а получатель - принимает. Передача информации осуществляется различными способами: с помощью курьера, пересылка по почте, доставка транспортными средствами, дистанционная передача по каналам связи.· Хранение информации - это процесс поддержания исходной информации в виде,обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки.· Пример: архив, библиотека, компьютер (жесткий диск)· Обработка информации - это упорядоченный процесс ее преобразования в соответствии с алгоритмом решения задачи. Процесс обработки информации состоит в получении одних «информационных объектов» из других «информационных объектов» путем выполнения некоторых алгоритмов и является одной из основных операций, осуществляемых над информацией.· После решения задачи обработки информации результат может быть передан конечному пользователю в удобной для него форме.

·

· 9 вопрос: Аналоговая и дискретная информация . Понятие дискретизации.

·

·

· Ответ:

·

·

· Человек способен воспринимать и хранить информацию в форме образов (зрительных, звуковых, осязательных, вкусовых и обонятельных). Зрительные образы могут быть сохранены в виде изображений (рисунков, фотографий и так далее), а звуковые - зафиксированы на пластинках, магнитных лентах, лазерных дисках и так далее.

· Информация, в том числе графическая и звуковая, может быть представлена в аналоговой или дискретной форме. При аналоговом представлении физическая величина принимает бесконечное множество значений, причем ее значения изменяются непрерывно. При дискретном представлении физическая величина принимает конечное множество значений, причем ее величина изменяется скачкообразно.

· Приведем пример аналогового и дискретного представления информации. Положение тела на наклонной плоскости и на лестнице задается значениями координат X и Y. При движении тела по наклонной плоскости его координаты могут принимать бесконечное множество непрерывно изменяющихся значений из определенного диапазона, а при движении по лестнице - только определенный набор значений, причем меняющихся скачкообразно (рис. 1.6).

Рис. 1.6 Аналоговое и дискретное кодирование

·


· Примером аналогового представления графической информации может служить, например, живописное полотно, цвет которого изменяется непрерывно, а дискретного - изображение, напечатанное с помощью струйного принтера и состоящее из отдельных точек разного цвета. Примером аналогового хранения звуковой информации является виниловая пластинка (звуковая дорожка изменяет свою форму непрерывно), а дискретного - аудиокомпакт-диск (звуковая дорожка которого содержит участки с различной отражающей способностью).

· Преобразование графической и звуковой информации из аналоговой формы в дискретную производится путем дискретизации, то есть разбиения непрерывного графического изображения и непрерывного (аналогового) звукового сигнала на отдельные элементы. В процессе дискретизации производится кодирование, то есть присвоение каждому элементу конкретного значения в форме кода.

· Дискретизация - это преобразование непрерывных изображений и звука в набор дискретных значений в форме кодов.

Билет № 10

Вероятностный подход к измерения информации.Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.

 

Количество информации - это мера уменьшения неопределенности.

1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. БИТ- это аименьшая единица измерения информации

Единицы измерения информации: 1байт = 8 бит

1Кб (килобайт) = 210 байт = 1024 байт

1Мб (мегабайт) = 210 Кб = 1024 Кб

1Гб (гигабайт) = 210 Мб = 1024 Мб

Формула Шеннона

I - количество информации

N – количество возможных событий

pi – вероятности отдельных событий

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

I = log2 K ,
Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.
Иногда формулу Хартли записывают так:

I = log2K = log2 (1 / р) = - log2 р,
т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

Билет № 11

ASCII (англ. American Standard Code for Information Interchange) — американская стандартная кодировочная таблица для печатных символов и некоторых специальных кодов. В американском варианте английского языка произносится [э́ски], тогда как в Великобритании чаще произносится [а́ски]; по-русски произносится также [а́ски] или [аски́].

ASCII представляет собой кодировку для представления десятичных цифр, латинского и национального алфавитов, знаков препинания и управляющих символов. Изначально разработанная как 7-битная, с широким распространением 8-битного байта ASCII стала восприниматься как половина 8-битной. В компьютерах обычно используют расширения ASCII с задействованным 8-м битом и второй половиной кодовой таблицы (например КОИ-8).

Таблица кодов ASCII делится на две части.

Международным стандартом является лишь первая половина таблицы, т.е. символы с номерами от 0 (00000000), до 127 (01111111).

*Таблица, в которой всем символам компьютерного алфавита поставлены в соответствие порядковые номера, называется таблицей кодировки.

Windows-1251 (СP1251) — набор символов и кодировка, являющаяся стандартной 8-битной кодировкой для всех русских версий Microsoft Windows. Пользуется довольно большой популярностью. Была создана на базе кодировок, использовавшихся в ранних «самопальных» русификаторах Windows в 1990—1991 гг. совместно представителями «Параграфа», «Диалога» и российского отделения Microsoft. Первоначальный вариант кодировки сильно отличался от представленного ниже в таблице (в частности, там было значительное число «белых пятен»).

Windows-1251 выгодно отличается от других 8‑битных кириллических кодировок (таких как CP866, KOI8-R и ISO 8859-5) наличием практически всех символов, использующихся в русской типографике для обычного текста (отсутствует только значок ударения); она также содержит все символы для близких к русскому языку языков: украинского, белорусского, сербского и болгарского.

Имеет два недостатка:

· строчная буква «я» имеет код 0xFF (255 в десятичной системе). Она является «виновницей» ряда неожиданных проблем в программах без поддержки чистого 8-го бита, а также (гораздо более частый случай) использующих этот код как служебный (в CP437 он обозначает «неразрывный пробел», в Windows-1252 — ÿ, оба варианта практически не используются; число же -1, в дополнительном коде длиной 8 бит представляющееся числом 255, часто используется в программировании как специальное значение, например, индикатор конца файла EOF часто представляется значением -1).

· отсутствуют символы псевдографики, имеющиеся в CP866 и KOI8 (хотя для самих Windows, для которых она предназначена, в них не было нужды, это делало несовместимость двух использовавшихся в них кодировок заметнее).

Юнико́д или Унико́д— стандарт кодирования символов, позволяющий представить знаки практически всех письменных языков.

Стандарт предложен в 1991 году некоммерческой организацией «Консорциум Юникода» Применение этого стандарта позволяет закодировать очень большое число символов из разных письменностей: в документах Unicode могут соседствовать китайские иероглифы, математические символы, буквы греческого алфавита, латиницы и кириллицы, при этом становится ненужным переключение кодовых страниц.

Стандарт состоит из двух основных разделов: универсальный набор символов и семейство кодировок. Универсальный набор символов задаёт однозначное соответствие символов кодам — элементам кодового пространства, представляющим неотрицательные целые числа. Семейство кодировок определяет машинное представление последовательности кодов UCS.

Коды в стандарте Юникод разделены на несколько областей. Область с кодами от U+0000 до U+007F содержит символы набора ASCII с соответствующими кодами. Далее расположены области знаков различных письменностей, знаки пунктуации и технические символы. Часть кодов зарезервирована для использования в будущем.[7] Под символы кириллицы выделены области знаков с кодами от U+0400 до U+052F, от U+2DE0 до U+2DFF, от U+A640 до U+A69F

Система кодирования

Универсальная система кодирования (Юникод) представляет собой набор графических символов и способ их кодирования для компьютерной обработки текстовых данных.

Графические символы — это символы, имеющие видимое изображение. Графическим символам противопоставляются управляющие символы и символы форматирования.

Графические символы включают в себя следующие группы:

· буквы, содержащиеся хотя бы в одном из обслуживаемых алфавитов;

· цифры;

· знаки пунктуации;

· специальные знаки (математические, технические, идеограммы и пр.);

· разделители.

Юникод — это система для линейного представления текста. Символы, имеющие дополнительные над- или подстрочные элементы, могут быть представлены в виде построенной по определённым правилам последовательности кодов или в виде единого символа.

13 вопрос: Кодирование звуковой информации.

 

Ответ: Основной ответ

 

 

В основе кодирования звука с использованием ПК лежит процесс преобразования колебаний воздуха в колебания электрического тока и последующая дискретизация аналогового электрического сигнала. Кодирование и воспроизведение звуковой информации осуществляется с помощью специальных программ (редактор звукозаписи). Качество воспроизведения закодированного звука зависит от частоты дискретизации и её разрешения (глубины кодирования звука - количество уровней)

 

Для общего развития:

 

Принципы оцифровки звука

Цифровой звук – это аналоговый звуковой сигнал, представленный посредством дискретных численных значений его амплитуды[2].

Оцифровка звука — технология поделенным временным шагом и последующей записи полученных значений в численном виде[2].
Другое название оцифровки звука — аналогово-цифровое преобразование звука.

Оцифровка звука включает в себя два процесса:

· процесс дискретизации (осуществление выборки) сигнала по времени

· процесс квантования по амплитуде.

Дискретизация по времени

Процесс дискретизации по времени - процесс получения значений сигнала, который преобразуется, с определенным временным шагом - шагом дискретизации . Количество замеров величины сигнала, осуществляемых в одну секунду, называют частотой дискретизации или частотой выборки, или частотой сэмплирования (от англ. « sampling» – «выборка»). Чем меньше шаг дискретизации, тем выше частота дискретизации и тем более точное представление о сигнале нами будет получено.
Это подтверждается теоремой Котельникова (в зарубежной литературе встречается как теорема Шеннона, Shannon). Согласно ей, аналоговый сигнал с ограниченным спектром точно описуем дискретной последовательностью значений его амплитуды, если эти значения берутся с частотой, как минимум вдвое превышающей наивысшую частоту спектра сигнала. То есть, аналоговый сигнал, в котором наивысшая частота спектра равна Fm, может быть точно представлен последовательностью дискретных значений амплитуды, если для частоты дискретизации Fd выполняется: Fd>2Fm.
На практике это означает, что для того, чтобы оцифрованный сигнал содержал информацию о всем диапазоне слышимых частот исходного аналогового сигнала (0 – 20 кГц) необходимо, чтобы выбранное значение частоты дискретизации составляло не менее 40 кГц. Количество замеров амплитуды в секунду называют частотой дискретизации (в случае, если шаг дискретизации постоянен).
Основная трудность оцифровки заключается в невозможности записать измеренные значения сигнала с идеальной точностью.

[править]Линейное (однородное) квантование амплитуды

Отведём для записи одного значения амплитуды сигнала в памяти компьютера N бит. Значит, с помощью одного N -битного слова можно описать 2N разных положений. Пусть амплитуда оцифровываемого сигнала колеблется в пределах от -1 до 1 некоторых условных единиц. Представим этот диапазон изменения амплитуды - динамический диапазон сигнала - в виде 2N -1 равных промежутков, разделив его на 2N уровней - квантов. Теперь, для записи каждого отдельного значения амплитуды, его необходимо округлить до ближайшего уровня квантования. Этот процесс носит название квантования по амплитуде. Квантование по амплитуде – процесс замены реальных значений амплитуды сигнала значениями, приближенными с некоторой точностью. Каждый из 2N возможных уровней называется уровнем квантования, а расстояние между двумя ближайшими уровнями квантования называется шагом квантования. Если амплитудная шкала разбита на уровни линейно, квантование называют линейным (однородным).
Точность округления зависит от выбранного количества (2N) уровней квантования, которое, в свою очередь, зависит от количества бит (N), отведенных для записи значения амплитуды. Число N называют разрядностью квантования(подразумевая количество разрядов, то есть бит, в каждом слове), а полученные в результате округления значений амплитуды числа – отсчетами или сэмплами (от англ. “ sample” – “замер”). Принимается, что погрешности квантования, являющиеся результатом квантования с разрядностью 16 бит, остаются для слушателя почти незаметными. Этот способ оцифровки сигнала - дискретизация сигнала во времени в совокупности с методом однородного квантования - называется импульсно-кодовой модуляцией, ИКМ (англ. Pulse Code Modulation – PCM).
Оцифрованный сигнал в виде набора последовательных значений амплитуды уже можно сохранить в памяти компьютера. В случае, когда записываются абсолютные значения амплитуды, такой формат записи называется PCM ( Pulse Code Modulation). Стандартный аудио компакт-диск (CD-DA), применяющийся с начала 80-х годов 20-го столетия, хранит информацию в формате PCM с частотой дискретизации 44.1 кГц и разрядностью квантования 16 бит.

Другие способы оцифровки

· Способ неоднородного квантования предусматривает разбиение амплитудной шкалы на уровни по логарифмическому закону. Такой способ квантования называют логарифмическим квантованием. При использовании логарифмической амплитудной шкалы, в области слабой амплитуды оказывается большее число уровней квантования, чем в области сильной амплитуды (при этом, общее число уровней квантования остается таким же, как и в случае однородного квантования). Аналогово-цифровое преобразование, основанное на применении метода неоднородного квантования, называется неоднородной импульсно-кодовой модуляцией - неоднородной ИКМ ( Nonuniform PCM).

· Альтернативным способом аналогово-цифрового преобразования является разностная импульсно-кодовая модуляция – разностная ИКМ (англ. « Differential PCM» – DPCM). В случае разностной ИКМ квантованию подвергают не саму амплитуду, а относительные значения величины амплитуды. В полной аналогии с ИКМ, разностная ИКМ может сочетаться с использованием как однородного, так и неоднородного методов квантования. Разностное кодирование имеет много разных вариантов[3].



Последнее изменение этой страницы: 2016-08-11

headinsider.info. Все права принадлежат авторам данных материалов.