background image

Тема: СЪОБЩЕНИЯ, СИГНАЛИ И КОМУНИКАЦИОННИ КАНАЛИ

СЪОБЩЕНИЯ И СИГНАЛИ В ТЕЛЕКОМУНИКАЦИИТЕ. ЕЛЕКТРИЧЕСКИ ПАРАМЕТРИ 

И ИЗТОЧНИЦИ НА СИГНАЛИ

Съобщения и сигнали в телекомуникациите

Увод.  Академик   А.   А.   Харкевич   (1904-1965)   дава   следното   определение   за 

информацията:   «Информацията   представлява   множество   сведения   за   явленията   в 
природата   и   обществото,   които   могат   да   бъдат   обекти   на   съхраните,   пренасяне   и 
преобразуване».

Информацията се обменя чрез съобщения. Съобщението (message)  

a(t)

  е отрязък от 

информационното   пространство,   форма   на   представяне   на   информацията.   Примери   за 
съобщения са говорът, текстът, музиката, образите (неподвижни и подвижни), данните (букви, 
цифри и знаци и др.).

1. Видове съобщения. 
Съобщенията 

a(t)

 са дискретни и аналогови. 

Дискретни  са тези съобщения, които се изграждат от краен брой символи. Такива са 

съобщенията в телеграфията, при предаване на данни, в телемеханиката, при комуникация 
между   компютрите   и   т.н..   Броят   на   символите   зависи   от   азбуката   или   бройната   система, 
която се използва.

Аналогови  (непрекъснати) се  наричат  съобщенията,  съставени  от  неограничен   брой 

символи, т. е. използващи неограничено голяма азбука. Те се представят чрез непрекъсната 
функция   на   времето.   Типично   аналогови   са   звуковите   съобщения,   в   които   се   използват 
безкрайно   много   стойности   на   тоновете   и   силата   на   звука,   но   в   зададен   интервал   на 
изменение.

2. Параметри на съобщенията. 
Основните параметри на съобщението са информационните. Те са:

количество информация

, която се съдържа в съобщението;

информационна производителност

 и капацитетът на източника;

информационен излишък

 на съобщението.

а

  . Количество информация

 

 

За да се разбере,  как се определя  количеството информация, трябва  да се изясни 

понятието ентропия.

Ентропията 

Н(а)

 (entropy) е мярка за неопределеност. Ако е известно всичко за нещото, 

ентропията му има стойност нула. Когато нищо не е известно, ентропията му е безкрайност. 
Информацията  

I

а

,   която   се   получава   със   съобщението,   «погасява»   неопределеността.   В 

съобщението  

а

i

  се   съдържа   информация  

,   която   е   разликата   между   стойностите   на 

ентропията преди 

H

1

(a

i

)

 и след получаване на съобщението от получателя 

Н

2

i

)

:

(1)                                       

)

(

)

(

2

1

i

i

a

a

H

a

H

I

=

Съвкупността на всички възможни съобщения за «нещото» и тяхната вероятност за 

поява образува ансамбъл от съобщения. Нека ансамбълът да се състои от две възможни 
стойности 

а

1

 и 

а

2

. Нека 

a

1

 = 1 и 

а

2

= 0, («ези» и «тура», + и - 1 и 0 и пр.). Нека, освен това, те да 

са  независими  и   равновероятни,   т.е.  вероятността  

Р(a

1

)

  да  се  получи  съобщение  

а

1

  да   е 

равна   на   вероятността  

Р(а

2

)

  да   се   получи   съобщение  

а

2

:   Р(а

1

)  =  Р(а

2

)   =   Р(а)   =  1/2

  При 

приемане на съобщение а е дошла информация, чието количество е:

(2)            

(

)

1

1

0

2

log

1

log

2

1

log

)

(

log

2

2

2

2

=

+

=

=

=

=

a

P

I

a

Това е най-малкото количество информация, наречено "binary digit" съкратено bit. Ако 

едното от съобщенията а

1

 и а

2

 е по-вероятно от другото, информацията щеше да е по-малко 

от 1 bit.

Преди да хвърлим една монета не знаем какво ще се падне - ези или тура, но знаем, че 

вероятността за всяка от двете възможности а

1

  и а

2

  е равна, т.е. P

1

(a

1

)  = P

2

(a

2

)  =  0,5. По 

формула (2) може да се намери:

Ia =log

2

2=1bit.

След падането на монетата е получен един бит информация. Същата информация се 

1

background image

получава   и   при   пренасяне   на   съобщение   с   електрически   импулс,   който   има   две 
равновероятни стойности 1 и 0, ако са с еднаква вероятност.

В   общия   случай   при  

n

  равновероятни   съобщения   в   ансамбъла   количеството 

информация, която носи всяко от тях е:

(3)                                  

la = -log

2

1/n = log

2

n.

Количеството информация 

a

I

, съдържащо се в няколко независими съобщения 

I

a1

I

а2 

… 

I

an

, е равно на сумата от информацията, съдържаща се във всяко от тях:

(4)                                

.

1

2

1

=

=

+

+

=

n

i

ai

an

a

a

a

I

I

I

I

I

Това съответства  на  интуитивната представа  за увеличаване на информацията при 

получаване на допълнителни сведения и съобщения. Нека вземем примери:

1. Ако хвърлим един зар, вероятността да се падне, примерно, числото 5, е l/6. За коя 

да   е   от   шестте   страни   на   куба   това   е   равновероятно.   Информацията,   която   носи 
съобщението, е: 

la =log

2

6 = 2,585bit

.

2. Да определим количеството информация, което се съдържа в дума, състояща се от 

6 букви от руската азбука, където общият брои на буквите е 32. Ще приемем, че вероятността  
им за поява в съобщението е еднаква и следователно равна на 

Р(а) = 1/32

. Като се замести в 

(3) ще  се получи,  че  всяка  буква носи

: Ia =  log

2

32  =  5 bit

  информация. По (4)  излиза,  че 

количеството информация в думата е 

a

I

= 6x5 = 30 bit.

Примерът с азбуката обаче не е коректен. Буквите не идват в съобщението с еднаква 

вероятност. Гласната 

е

 се среща много по-често от 

ъ

, съгласната 

б

 е по-вероятна от 

ь

 и т.н. 

Тогава не всички съобщения от ансамбъла носят еднаква информация.

В общия случай съобщенията имат различна вероятност за поява. Затова, когато се 

оценяват   като   цяло   информационните   свойства   на   източника   на   съобщенията   а

i

  (

n

i

,

1

=

трябва   да   се   определи   ентропията   му  H(а).   Намира   се   като   сума   от   количеството 
информация,  която носят  всички  съобщения,  но като се отчита  вероятността  за поява на 
всяко съобщение:

(5)                         H(а) = 

=

n

i

i

i

bit

a

P

a

P

1

2

),

(

log

)

(

.

От тази по-обща формула лесно се получават (2) и (3). Тази формула е валидна за 

независими   съобщения.   Има   формули   за   определяне   на   ентропията   и   при   зависими 
съобщения, които тук няма да привеждаме.

Смущенията   в   комуникационната   система   променят   приетото   съобщение. 

Съобщенията   със   смущения   съдържат   по-малко   количество   информация.   Влиянието   на 
смущенията върху ентропията на съобщенията може да се отчете аналитично, ако се знаят 
неговите количествени параметри.

б.  

   Информационна   производителност   на   източника  

 

 

Ht   (bit/s)

 

 

.  

   Това   е   скоростта   на 

възникване на съобщенията, т.е., количеството информация, съдържаща се в съобщенията 
за   единица   време.   Капацитет   на   източника   С

u

  е   максималната   му   производителност   H

tmax 

(bit/s). Очевидно, капацитетът на един морзов апарат е на порядъци по-малка от тази на един 
компютър, работещ в Internet. Хората говорят различно бързо и имат различен капацитет като 
източници на информация.

в.  

   Информационен   излишък

 

 .  

   Най-голяма   е   ентропията   (

Н

mах

)   на   източника   при 

равновероятна поява на символите в съобщенията от един ансамбъл. В общия случай обаче 
вероятностите не са еднакви, поради което реалната ентропия на източника е по-малка: 

Н < 

Н

mах

.   Информационният   излишък

  R

  оценява   относителната   недонатовареност   на 

съобщенията с информация

(6)                             

,

100

.

1

max





=

H

H

R

  %

Установено е, че за говоримите езици, включително българския, излишъкът R 

70 %. 

Той се е получил в естествените езици при тяхната еволюция, за да осигури разбираемост 

2

background image

при наличие на шумове. И да не разберете добре една дума с голяма вероятност можете, 
благодарение на излишъка, да предполагате, коя е думата (ако чуете "информация" вярното 
сигурно  е  "информация",  ако е получено  "грешк",  можете да го приемете  за  "грешка"  или 
"грешки" в зависимост от контекста).

Излишъкът,   както   ще   се   види   по-нататък,   служи   да   защитава   достоверността   на 

предаваната информация.

Цифровите   данни   (в   двоична   система   —   единици   и   нули,   в   десетична   или   друга 

система) не се свързват в думи, цифрите са равновероятни и нямат излишък, поради което са 
твърде уязвими от смущения. За откриване и корекция на грешки в приетите съобщения, 
излишъкът се въвежда изкуствено (вж. гл. пета).

3. Сигнали в телекомуникациите. Видове сигнали. 

Периодичност

 

 .  

 

  

В зависимост от повторяемостта на стойностите на сигналите те биват 

периодични и непериодични. Периодичен е сигналът, чиято стойност се повтарят на равни 
интервали от време  

s(t) = s (t+nT),

  където  

n  = ±1, ±2, ±3...

  Времето  

Т,

  през което настъпва 

едно пълно изменение на параметрите на сигнала, се нарича период. Пример за периодичен 
сигнал е хармоничното трептене 

s(t) = Asin(ωt + j).

Ъгловата честота на основното трептене е 

=

ω

 2

f

π

 =2

π

/Т, където честотата 

f = 1/Т

 на 

периодичния сигнал показва скоростта на неговото изменение във времето. Единицата за 
нейното измерване е Херц [Hz].

Непериодичен

 е сигналът, за който 

s(t) 

s(t+nT).

 Неговата стойност или не се повтаря 

през равни интервали, или повторението идва след Т  

. Непериодичен е един отделен 

импулс. Непериодични са постояннотоковите сигнали. Най-често и шумът е непериодичен.

Форма

 

 

  

По своята форма сигналите s(t) могат да се групират както следва:

1.  Непрекъснати   в   непрекъснато   време.   Аналоговите   сигнали   са   типични 

представители на тази група. Те могат да се изменят в произволно, а амплитудите им заемат 
произволни стойности от даден интервал на изменения (Фиг.1. а).

2.  Непрекъснати по стойност, но в дискретно време. Изменят се в строго определени 

моменти от време (например на равни тактове), могат да заемат произволни стойности от 
даден   интервал   на   изменения,   но   до   следващия   регламентиран   момент   от   време   не   се 
предполага промяна на стойността на сигнала (Фиг.1. б).

3. Дискретни сигнали в непрекъснато време. Отличават се от предидущите по това, че 

могат да се изменят в произволни моменти от време, но заемат само разрешени (дискретни) 
стойности от дадено множество (Фиг.1. в).

4.   Дискретни   сигнали   в   дискретно   време.   В   определени   моменти   могат   да   заемат 

предварително известни стойности (Фиг.1. г). Такива сигнали се наричат цифрови сигнали.

4. Цифровизация на комуникационните системи. 
Характерен феномен в развитието на телекомуникациите е тяхната цифровизация, при 

която телекомуникационните сигнали са дискретни, цифрови.

Фиг.1. Видове сигнали

При зараждането на комуникационната техника, когато в 1839 г. се появява Морзовия 

апарат и се създава телеграфията, сигналите са били само дискретни. През 20

-ти

  век те са 

основно аналогови. На границата с 21

-ви

 век стана бърз обратен преход. В началото на новото 

3

background image

хилядолетие може да се очаква пълна цифровизация на телекомуникациите. Обяснението е 
следното:

1.   На   голямо   разстояние   (примерно   повече   от   25-30   km)   аналоговият   сигнал   губи 

енергия и затихва толкова, че не може да се възпроизведе в приемника. За пренасянето му 
по-далеч трябва промеждутъчно да се усили, за да се възстанови енергията му. Но «по пътя» 
той вече е натрупал различни смущения. И колкото по-далеч трябва да се изпрати, толкова 
повече   смущения   натрупва,   толкова   пораженията   върху   него   са   по-големи.   Усилвателите 
усилват   изкривения   сигнал,   но   не   «изчистват»   настъпилите   изменения   във   формата   на 
сигнала.   Ако   сигналът   е   цифров   той   също   затихва,   но   вместо   усилватели   могат   да   се 
използват повторители (регенератори), които възстановяват правоъгълната му форма. И това 
съвсем   не   е   трудно   -   достатъчно   е   само   в   регенератора   да   се   установи,   че   е   дошъл 
(независимо какъв) сигнал «1», за да се генерира и препрати правилен и «изчистен» импулс 
(Фиг.2.).

Фиг.2. Възстановяване на цифровия сигнал

2. Както ще се види по-долу, вместо самата амплитуда на сигнала може да се пренася 

информацията за нейната стойност. И това може да стане чрез двоично число, пренесено с 
цифров   сигнал   от   единици   (импулси)   и   нули   (паузи).   В   приемника   амплитудата   се 
възпроизвежда   по   получената   информация   за   нейната   стойност.   Тогава   затихването   по 
канала   не   играе   роля.   Достатъчно   е  правилно   да   се   регенерират   единиците   и   нулите   на 
двоично число.

5. Електрически параметри на сигналите. 
Процесът   на   цифровизация   започва   от   връзката   между   комутационните   системи   и 

стига до връзката между терминала и комутационната система (фиг. 3.). От чертежа се вижда 
как   с   течение   на   времето   цифровизацията   навлиза   все   по-широко   и   по-дълбоко   в 
телекомуникациите. Почти столетие господстват аналоговите системи. Едва през 70

-те

 години 

на миналия век започва усилена цифровизация, отначало на преносната среда, после на 
комутационната   система,   на   уплътнителните   устройства   и   т.н.   за   да   се   стигне   днес   до 
изключително цифрови комуникации.

Фиг. 3. Процес на цифровизация на преносните среди

Всеки сигнал се характеризира с електрически, информационни и енергийни параметри 

(Фиг.4.).

Информационните параметри на сигналите са аналогични на тези на съобщенията.

Към електрическите параметри се отнасят:

а

  . Ниво на сигнала. 

 

 Сигналите, тяхното усилване и затихване в телекомуникациите се 

4

Това е само предварителен преглед!

Съобщения, сигнали и комуникационни канали

Академик А. А. Харкевич (1904-1965) дава следното определение за информацията: "Информацията представлява множество сведения за явленията в природата и обществото, които могат да бъдат обекти на съхраните, пренасяне и преобразуване"...

Съобщения, сигнали и комуникационни канали

Предмет: Сигнали и системи
Тип: Теми
Брой страници: 14
Брой думи: 5429
Брой символи: 33065
Изтегли
Този сайт използва бисквитки, за да функционира коректно
Ние и нашите доставчици на услуги използваме бисквитки (cookies)
Прочети още Съгласен съм