Анализ процесса передачи информации

I. ИНФОРМАЦИОННЫЕ СИСТЕМЫ СВЯЗИ

Для передачи сигналов электросвязи еще в шестидесятые годы начаты организация и строительство Единой Автоматизированной Сети Связи (ЕАСС). Она предназначена для удовлетворения потребностей передачи любой информации, преобразованной в сигналы электросвязи. Термином тАЬинформациятАЭ с древнейших времен обозначали процесс разъяснения, изложения, истолкования. Позднее так называли и сами сведения и их передачу в любом виде. Еще Ожегов в тАЬСловаре русского языкатАЭ термин тАЬинформациятАЭ объяснил, как сообщение, осведомляющее о положении дел, состоянии чего-нибудь.

Информация тАУ не только сведения о свойствах объектов и процессов, но и обмен этими сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передача признаков от клетки к клетке, от организма к организму. Под информацией нужно понимать не сами объекты и процессы, или их свойства, а представляющие характеристики предметов и процессов, их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов и других абстрактных характеристик.

Информационная наука находит применение в самых разнообразных областях. В связи с этим нет всеобщего для всех наук классического определения понятия тАЬинформациятАЭ. В каждом направлении используют определение ее отдельных составляющих, наиболее важных для данной науки. Для теории систем информация выступает как мера организации системы. Для теории познания важно, что информация изменяет наши знания. Под информацией понимают не все получаемые сведения, а только те, которые еще не известны и являются новыми для получателя, В этом случае информация является мерой устранения неопределенности. Для машинной обработки информация должна быть представлена в виде сообщений на определенном языке. Специалистам связи важно, что информация-это сведения, являющиеся объектом передачи и обработки.

Структурная схема информационной системы связи представлена на рис.1.

Из рис.1 видно, что информационная система связи состоит из двух подсистем: передачи и обработки информации.

Когда говорят о передаче информации, то имеют в виду только форму сообщения, в которую облечена информация, способ преобразования его сигнал и передачу.

Развитие техники передачи информации связано с развитием теории передачи сигналов (ТПС), поскольку информация непосредственно не передается, а для целей передачи преобразуется в сигналы.

Введение способа измерения количества информации К. Шенноном в конце 40-х годов привело к формированию самостоятельного научного направления под названием тАЬТеория информациитАЭ. Параллельно на основе работ В.А. Котельникова развивалось другое научное направление - теория помехоустойчивости.

Теория информации решала задачу максимизации средней скорости передачи. Главной задачей теории помехоустойчивости является отыскание таких способов передачи и приема, при которых обеспечивалась бы наивысшая достоверность принятого сообщения. Обе задачи являются, по сути различными сторонами одного и того же процесса обработки информации при ее передаче и приеме.

В 1946 и 1956 гг. В.А. Котельниковым были опубликованы работы по оптимальным методам приема и потенциальной помехоустойчивости. Использование результатов этих работ дало возможность судить  о том, насколько данная конкретная аппаратура близка к идеальной по своей способности выделять сигнал из смеси его с помехами.

Первой серьезной работой по теории передачи информации следует считать труд Р.Хартли тАЬПередача информациитАЭ, изданный в 1928г. Немало важное значение для теории передачи дискретных сигналов имела работа Найквиста тАЬНекоторые факторы, воздействующие на скорость телеграфированиятАЭ (1924г.).

Существенным шагом в становлении новой теории передачи информации явилась тАЬМатематическая теория связитАЭ К.Шеннона. В этой работе доказана теорема о пропускной способности канала связи. Оказалось, что при скоростях передачи, меньших пропускной способности канала, существуют методы передачи (кодирования) и приема (декодирования), позволяющие восстановить передаваемый сигнал со сколь угодно малой вероятностью ошибки, несмотря на наличие помех.

Работы В.А. Котельникова и К. Шеннона создали фундамент теории передачи сигналов, которая получила дальнейшее развитие благодаря работам многих ученых по отдельным ее разделам.

II. СИСТЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ

1. Система передачи информации.

Для систем передачи информации важна физическая природа ее восприятия. По этому признаку информация может быть разделена на слуховую, зрительную и тАЬмашиннуютАЭ. Первые два вида соответствуют наиболее емким каналам восприятия информации человеком. Пропускная способность слухового канала составляет тысячи десятичных единиц информации, а зрительного - миллионы. тАЬМашиннаятАЭ информация предназначена для обработки ЭВМ. Здесь пропускная способность каналов должна согласовываться со скоростью обработки ее машиной тАУ до нескольких десятков миллионов двоичных единиц информации в секунду. С помощью ЭВМ в настоящее время стала возможна обработка слуховой и зрительной информации.

Для передачи информации на расстояние необходимо передать содержащее эту информацию сообщение. Структурная схема систему передачи информации приведена на рис.2.

            система передачи информации

                            канал

И         К         М           ДМ            ДК            П

                           сигнал

                               информация

                             Рис.2

Буквами на схеме обозначены следующие устройства:

    И тАУ источник;

    К тАУ кодер;

    М тАУ модулятор;

    ДМ тАУ демодулятор;

    ДК тАУ декодер;

    П тАУ приемник.

Кодер осуществляет отображение генерируемого сообщения в дискретную последовательность.

Модулятор и демодулятор в совокупности реализуют операции по преобразованию кодированного сообщения в сигнал и обратные преобразования.

Декодер отображает дискретную последовательность в копию исходного сообщения.

2. Кодирование и модуляция.

2.1. Кодирование

Идея кодирования возникла давно и преследовала в основном быстроту и секретность передачи информации. В современных условиях кодирование используется и для создания условий, обеспечивающих надежную и экономичную передачу сообщений по каналам связи.

Под кодированием понимают процедуру сопоставления дискретному сообщению вида: ai (i=1, 2, 3, тАж,к) определенной последовательности кодовых символов, выбираемых из конечного множества различных элементарных кодовых символов: bi (i=1, 2, 3, тАж,m).

В кодировании используются различные системы счисления.

Из всех систем счисления практическое назначение имеют: двоичная (R=2), троичная (R=3), четверичная (R=4), восьмеричная (R=8) и десятичная (R=10). Кроме этих систем, человек издавна пользуется двенадцатиричной системой, отсчитывая время, и шестидесятиричной для отсчета углов. Во всех системах используется различное количество цифр. Например: в двоичной используется две цифры: 0 и 1 (011001). Представление машинных кодов производится в шестнадцатеричной системе счисления, где для кодирования информации используется сочетание цифр (0, 1, 2, тАж9) и букв (A, B, C, D, E, F).

В кодировании используются различные типы кодов: равномерный, неравномерный, избыточный, безизбыточный, помехоустойчивый, оптимальный.

Повышение коэффициента использования канала достигается за счет создания оптимального кода, т.е. вероятность встречаемости элементов одинакова.

Базовыми являются коды Морзе и Шеннона - Фанно.

Код Морзе: наиболее часто встречающимся знакам присваиваются наименее короткие и наоборот.

Код Шеннона тАУ Фанно: принцип кодирования состоит в следующем: множество кодируемых знаков разбиваются на две группы, так, чтобы вероятности их встречаемости были одинаковыми (рис.3).

                               

  1. 1

0   00       01    1                  0                       1

                                  0              1        0   110    1

                                                                     111

Рис.3                   0            1      0             1

                     1000         1001    1010       1011

2.2. Модуляция

Модуляцией называется процесс управления одним или несколькими параметрами несущей (переносчика информации) в соответствии с изменением параметров первичного сигнала. Модулируемый параметр носителя называется информационным. Различают три вида модуляции: амплитудную (АМ), частотную (ЧМ) и фазовую (ФМ).

В качестве несущей используется не только гармонические, но и импульсные колебания. При этом выбор способов модуляции расширяется до семи видов:

АИМ тАУ амплитудно тАУ импульсная модуляция заключается в том, что амплитуда импульсной несущей изменяется по закону изменения мгновенных значений первичного сигнала.

ЧИМ тАУ частотно тАУ импульсная модуляция. По закону изменения мгновенных значений первичного сигнала изменяется частота следования импульсов несущей.

ВИМ тАУ время тАУ импульсная модуляция, при которой информационным параметром является временной интервал между синхронизирующим импульсом и информационным.

ШИМ тАУ широтно тАУ импульсная модуляция. Заключается в том, что по закону изменения мгновенных значений модулирующего сигнала меняется длительность импульсов несущей.

ФИМ тАУ фазо тАУ импульсная модуляция, отличается от ВИМ методом синхронизации. Сдвиг фазы импульса несущей изменяется не относительно синхронизирующего импульса, а относительно некоторой условной фазы.

ИКМ тАУ импульсно тАУ кодовая модуляция. Ее нельзя рассматривать как отдельный вид модуляции, так как значение модулирующего напряжения представляется в виде кодовых слов.

СИМ тАУ счетно тАУ импульсная модуляция. Является частным случаем ИКМ, при котором информационным параметром является число импульсов в кодовой группе.

3. Параметры системы передачи информации

Как видно из рис.2 система передачи информации состоит из 6 блоков.

Рассмотрим подробнее параметры трех составляющих системы передачи информации: источник информации, сигнал и канал.

Форма представления информации для ее передачи, хранения, обработки или непосредственного использования называется сообщением.

Для передачи информации на расстояние необходимо передать содержащие эту информацию сообщения. Такая передача возможна только с помощью какого -тАУлибо тАУматериального носителя тАУ источника информации.

Основными параметрами источника информации являются: множество сообщений V, количество информации I и  избыточность  R.

3.1. Источник информации

Из одного источника можно передать множество сообщений:

V= V1, V2, V3,.... Vn, где:

      V1 - первый источник

      Vn - n-ный  источник.

Для сравнения между собой различных источников сообщений, а также различных линий и каналов связи нужно ввести количественную меру, которая дала бы возможность объективно оценить информацию, содержащуюся в сообщении и переносимую сигналом. Такая мера впервые была введена американским ученым К.Шенноном в 1946г.

Информация рассматривается как сообщение об исходе случайных событий, о реализации случайных сигналов. Поэтому количество информации ставится в зависимость от вероятности этих событий.

Если сообщение несет сведения о часто встречающихся событиях, вероятность появления которых стремится к единице, то такое сообщение мало информативно.

Количество информации в сообщении с таких позиций определяется уменьшением неопределенности состояния некоторого процесса. В отношении сигнала, несущего информацию, неопределенность выражается неизвестностью его информационных параметров. Пока сигнал не принят и не определены его информационные параметры,  о содержании сообщения можно только догадываться с некоторой вероятностью правдоподобия. После приема сигнала неопределенность в содержании сообщения значительно уменьшается. Если есть гарантия, что при передаче сообщения не возникло искажений сигнала, то неопределенность вообще исчезает. Однако имеется всегда, хотя и малая, вероятность ошибки, так - как без искажений вообще сигнал не может быть передан. Поэтому некоторая неопределенность все тАУ таки остается.

Неопределенность ситуации принято характеризовать величиной, которая называется энтропия. В информатике она характеризует способность источника отдавать информацию. В статической теории информации, учитывающей вероятность появления тех или иных сообщений, энтропия количественно выражается как средняя функция множества вероятностей каждой из возможных реализаций сообщения или несущего сигнала. Исходя из этого, энтропия определяется суммой произведений вероятностей различных реализаций сигнала Х на логарифм этих вероятностей, взятых с обратным знаком:

                                           i=n

H(X)= - тИС P1 log Pi     ,где:

                                           i=1

      H(X) тАУ энтропия сигнала Х,

      Pi тАУ вероятность i тАУ ой реализации случайного сигнала,

      n  - общее возможное количество реализаций.

Использование энтропии в теории информации оказалось очень удобным в силу ее следующих важных свойств:

  энтропия равна нулю, когда одно из событий достоверно, а другие невозможны;

  энтропия максимальна, когда все возможные события равновероятны, и растет с увеличением числа равновероятных состояний;

  энтропия обладает свойством аддитивности, т.е. энтропию независимых систем можно складывать.

Поясним каждое из перечисленных свойств.

Если ситуация полностью ясна, то никакой неопределенности нет, и энтропия в этом случае равна нулю. Например: если ток в цепи равен 10А, то он не может быть одновременно равным 5А.

На этом примере можно пояснить и второе свойство. Если одно из событий ожидается с очень малой вероятностью, например, Р1 = 0,01, а другое с высокой, например, Р2 = 0,99, то неопределенность невелика, т.к. почти наверняка получим второе сообщение.

Если же оба события равновероятны и Р1 = Р2 = 0,5, то уже нет уверенности, что будет получено какое - то из сообщений, т.е. неопределенность возрастает. Очевидно, что неопределенность возрастает, если вместо одного из двух сообщений может прийти одно из трех, четырех и более.

Сообщения источника обладают избыточностью. Дело в том, что отдельные знаки сообщения находятся в определенной статической связи. Так, в словарях русского языка после двух подряд стоящих согласных букв более вероятна гласная, а после трех подряд согласных наверняка будет гласная. Избыточность позволяет представлять сообщения в более экономной, сжатой форме. Мера возможного сокращения сообщения без потери информации за счет статистических взаимосвязей между его элементами определяется избыточностью. Понятие избыточность применимо не только к сообщениям или сигналам, но и к языку в целом, коду (алфавит любого языка и слова, составленные из его букв, можно рассматривать как код). Например, избыточность европейских языков достигает 60 тАУ 80%.

Наличие избыточности в сообщении часто оказывается полезным и даже необходимым, т.к. позволяет обнаруживать и исправлять ошибки, т.е. повысить достоверность воспроизведения его. Если избыточность в сообщении не используется для повышения достоверности, то она должна быть исключена. Это достигается использованием специального статистического кодирования. При этом избыточность сигнала уменьшается по отношению к избыточности сообщения.

Избыточное кодирование уменьшает неопределенность воспроизведения передаваемого сообщения, т.е. уменьшает ошибки при его приеме.

Избыточностью кода называют разность между средней длинной слова и энтропией.

Избыточность находят следующим образом:

R=1-Hф/Hм, где:

     Hф - фактическая энтропия,

     Hм - максимальная энтропия.

3.2. Сигнал

Возможность способа передачи учитывается способом преобразования сообщения в сигнал. В случае электросвязи все виды информации с помощью соответствующих электронных приборов преобразуются в электрические сигналы, отображающие сообщение.

Сигнал тАУ это материально тАУ энергетическая форма представления информации. Другими словами, сигнал тАУ это переносчик информации, один или несколько параметров которого, изменяясь, отображают сообщение.

Цепь тАЬинформация тАУ сообщение тАУ сигналтАЭ тАУ это пример процесса обработки, необходимой там, где находится источник информации. На стороне потребителя информации осуществляется обработка в обратном порядке: тАЬсигнал тАУ сообщение тАУ информациятАЭ.

Сигналы в системах электросвязи разделяются на телефонные, телеграфные и телевизионные. Сигналы могут быть:  непрерывными (телефонные, телевизионные) или дискретными (телеграфные).

Непрерывным (аналоговым) сигналом называют такой сигнал, у которого в заданном интервале времени можно отсчитать бесконечно большое число значений.

Дискретный сигнал в том же интервале времени имеет конечное число значений. Примером дискретного сигнала является импульсный, т.е. такой, длительность которого соизмерима с длительностью установления переходного процесса в системе, на вход которой он действует.

Существует несколько физических характеристик, общих для любого сигнала.

Физическая характеристика сигнала тАУ это описание любым способом его свойств.

Сигнал может быть характеризован различными параметрами. Для систем передачи имеют важное значение лишь три основных параметра: время передачи Тс, динамический диапазон изменения мощности сигнала от максимального Рс макс. до минимального Рс мин. значения и ширина полосы частот спектра тИЖFс.

Время передачи сигнала Тс характеризуется тем, что для передачи сигнала, несущего большую информацию, при прочих равных условиях, требуется и большее время.

Динамическим диапазоном характеризуют пределы изменения мощности сигнала. Оценивают динамический диапазон логарифмом отношения крайних значений мощности сигнала Рс макс./Рс мин., т.е.

Dc = 10lg(Рс макс./Рс мин.).

Полученное при этом значение динамического диапазона выражается в децибелах (дБ).

Третий параметр тАУ ширина полосы спектра частот сигнала тИЖFc также связана с объемом информации, которую несет сигнал. Ширина полосы частот равна разности максимальной и минимальной частотных компонент сигнала:

тИЖFc = Fмакс. тАУ Fмин.

Необходимая ширина полосы телефонного сигнала, обеспечивающая достаточную разборчивость и воспроизведение тембра речи, составляет от 300 до 3400 Гц, т.е. 3,1 кГц.

В кодировании сигналов используются различные типы кодов: равномерный, неравномерный, избыточный, безизбыточный.

Равномерный код тАУ все кодовые слова имеют одинаковую длину. Примером равномерного кода является международный пятиразрядный код №2 (МТК тАУ 2). Код Морзе, у которого кодовые слова имеют разную длину, является неравномерным кодом.

Избыточный код может быть получен, если к каждой из комбинаций простого кода добавить хотя бы еще один разряд, чтобы получившаяся кодовая комбинация обладала определенным свойством (например, весом). На приеме каждая принятая кодовая комбинация проверяется на наличие этого свойства. Если комбинация заранее известным свойством не обладает, то это означает, что в процессе передачи комбинация исказилась.

Кодирование избыточными кодами называется помехоустойчивым. Помехоустойчивый код позволяет обнаружить ошибки и называется кодом с обнаружением ошибок.

В сигналах используются три основных типа модуляции: амплитудная (АМ), частотная (ЧМ) и фазовая (ФМ).

Амплитудной модуляцией называют такое управление информационным параметром, при котором по закону модулирующего сигнала изменяется ее амплитуда.

Частотная модуляция тАУ это управление частотой несущего колебания по закону модулирующего сигнала.

Фазовая модуляция характеризуется изменением фазы несущей пропорционально мгновенным значениям модулирующего сигнала.

3.3. Канал

Если передаваемый сигнал характеризуется объемом, то канал передачи можно характеризовать емкостью. Емкость (Vk) канала имеет три составляющие: время Тк, в течении которого канал занят передачей сигнала, полоса пропускания тИЖFk и динамический диапазон Dk.

Динамическим диапазоном канала называют отношение допустимой максимальной мощности сигнала и его минимальной мощности. Последнюю принимают равной мощности собственных шумов канала. Отношение мощностей выражается в децибелах.

Таким образом, емкость канала равна:

Vk = Tk * тИЖFk * Dk

Емкость канала должна соответствовать объему передаваемого сигнала, т.е. Vk = Vc. Это равенство выражает условие согласования канала и сигнала. Даже в канале без помех нарушение этого условия приводит к потере информации в процессе передачи. При равенстве Vk = Vc объем передаваемого сигнала полностью тАЬвписываетсятАЭ в канал. В общем случае необходимо обеспечить условие Vk ≥ Vc, т.е. емкость канала должна быть не меньше объема передаваемого сигнала. Последнее условие обеспечивается при: Tk ≥ Tc; тИЖFk ≥ тИЖFc; Dk ≥ Dc. Однако, возможно и несоблюдение сразу всех трех неравенств при обеспечении главного Vk ≥ Vc. Это достигается обменом одного параметра на другой. Например, можно уменьшить полосу пропускания, но при этом потребуется во столько же раз увеличить время занятия канала.

Для повышения качества связи, расширения числа услуг связи, аналоговые системы передачи переводятся на цифровые.

Цифровизация сети позволяет расширить число услуг связи на основе интеграции сетей. Идея интегральной сети связи заключается в том, что по существующей абонентской линии абоненту включаются кроме телефонных аппаратов другие терминалы: передача данных, видеотелефон, факсовые аппараты, модемы и т.д.

В зависимости от скорости передачи информации каналы подразделяются на три вида:

  • цифровая интегральная сеть ЦИС тАУ 32;
  • узкополосная цифровая сеть интегрального обслуживания тАУ ЦСИО-У (английская транскрипция ISDN-N);
  • широкополосная цифровая сеть интегрального обслуживания ЦСИО-Ш (ISDN-B).

В цифровые сети связи ЦСИО-У и ЦСИО-Ш могут включатся такие виды электросвязи и сетей: передача данных; сотовая связь; служба обработки сообщений тАУ электронная почта (E тАУ mail); всемирная компьютерная сеть Internet.

Ряд сетей связи могут функционировать как выделенные сети со своими оконечными терминалами, цифровыми каналами. Они могут быть включены в ЦСИО-У, если оконечные терминалы будут работать со скоростью передачи не выше 64  кбит/с.

Сеть передачи данных по скорости передачи разделяются на:

  • низкоскоростные (НС) тАУ до 200 бит/с;
  • среднескоростные (СС) тАУ 600 тАУ 1200 бит/с;
  • высокоскоростные (ВС) тАУ 2,4 тАУ 96,0 Кбит/с.

В цифровой интегральной сети ЦИС тАУ 32 скорость передачи информации 32 Кбит/с.

В сети ЦСИО-Ш тАУ от 8 до 565 Мбит/с и более.

По рекомендации МККТТ установлена следующая иерархия цифровой сети передачи (табл.1.).

Таблица 1

Ступень иерархии

Скорость передачи

(Мбит/с)

Первичная

2,028

Вторичная

8,498

Третичная

34,368

Четвертичная

139,264

Пятиричная

565,000

4. Показатели эффективности

систем передачи информации

Основные показатели эффективности СПИ - это достоверность и коэффициент использования.

Достоверность оценивается вероятностью правильного приёма Рпр:

Рпр = 1-аl-аРс/Рш,  где:

     Рс - мощность сигнала,

     Рш  - мощность шума,

     а - коэффициент, зависящий от вида кода.

Коэффициент использования СТ:

СТ=Сv/Ск, где:

     Сv - скорость передачи информации,

     Ск - пропускная способность канала.

Сv=Hис/N, где:

    Hис - количество информации источника сообщения,

    N - число элементов кодовой комбинации.

Ск =1/N[log2M+(1-q) log2(1-q)]+q log2q/M-1, где:

    M - число позиций, которое занимает элемент  кода,

    q - вероятность перепутывания символов.

Для случая М=2, N=1, число сообщений к=2q, найдём СТ:

Ск=[1+(1-q) log2(1-q)]+ q log2q,

тогда график зависимости  СТ от величины q будет иметь следующий вид:

  СТ                        

  1. Подсистема обработки информации.

В подсистему обработки информации, как показано на рисунке 4, входят следующие основные операции:

- сбор информации Сб.И.

- обработка информации Об.И.

- хранение информации Хран.И.

- выдача по запросу Выд.

             Сб.И.            Об.И.           Хран.И.           Выд.   

Рис.4. Структурная схема подсистемы обработки информации.

Оценкой подсистемы обработки информации служат показатели качества информации ПКИ. К ним можно отнести такие показатели, как достоверность, полнота и своевременность передаваемой информации. Основные ПКИ показаны на рисунке 5. Одним из основных показателей является безошибочность. Необходимо добиваться того, чтобы число ошибок было минимальным. Так в звене управления требуется, чтобы вероятность ошибки Рош была намного меньше 10-310-4

(Рош< 10-310-4), для бухгалтерского учёта Рош< 10-810-10,

90% ошибок возникают на этапе обработки при перенесении информации с одного источника на другой.

Существует методика оценки вероятности ошибок отдельных элементов. Рассмотрим многозвенную систему обработки (рис. 6), где вероятность ошибки на выходе 1-ой системы Р1, на выходе 2-ой системы Р2, а на выходе N-ой системы РN (N - номер системы).

ПКИ

   

достоверность                 полнота          своевременность                                         

истин-        безоши-        безизбы-        избира-

ность         бочность       точность        тельность

      идентич-

       ность

Рис.5. Основные ПКИ.

                Р1                     Р2                                              РN

        1                      2                                   N          

      

Рис. 6. Многозвенная система обработки информации.

Развитие информационных сетей идет по пути освоения более высокочастотных диапазонов в спутниковом телевидении; перехода на цифровые методы передачи, приема, коммутации и развития цифровой сети интегрального обслуживания ЦСИО (ISDN тАУ Intergrated Service Digital Network) и широкополосной ЦСИО (Broadband ISDN) с волоконно тАУ оптическим кабелем в качестве среды передачи.

Прогресс в развитии средств связи и вычислительной техники привел к переходу в промышленно развитых странах от общества индустриального к обществу информационному.

В МККТТ сформировалось новое понятие тАУ интеллектуальная сеть ИС (Intelligent Network), отличительным признаком которой является быстрое, эффективное и экономное предоставление информационных услуг массовому пользователю в любой момент времени.

ЛИТЕРАТУРА
  1. Кловский Д.Д. Теория передачи сигналов.-    М.,тАЬСвязьтАЭ,1973.
  2. Ткаченко А.П. Бытовая радиоэлектронная техника. Энциклопедический справочник. тАУ Мн.: БелЭн, 1995.
  3. Шинаков Ю.С. Теория передачи сигналов в электросвязи. тАУ М.: Радио и связь. 1989.

       СОДЕРЖАНИЕ

  1. Информационные системы связи
  2. Система передачи информации
  1. Система передачи информации
  2. Кодирование и модуляция
    1. Кодирование
    2. Модуляция
  3. Параметры системы передачи информации
    1. Источник
    2. Сигнал
    3. Канал
  4. Показатели эффективности систем передачи   информации
III. Подсистема обработки информации

Вместе с этим смотрят:

Анализатор телефонных каналов
Антенны
Безопасность файловых ресурсов сети Windows 2000
Вирусы