[VoIP 개요] G.729 음성코덱

개발 이야기/VoIP | 2009. 9. 18. 19:26
Posted by 시반

저번에 말씀 드린 바와 같이 오늘은 G.729 코덱에 대해 좀더 알아 보도록 하겠습니다.

G.729 코덱에 대해 별도로 지면을 할애 하는 것은 그만큼 코덱이 중요하다는 의미 이지.

 

G.729 코덱은 두가지 Annex 있습니다.Annex A B 있습니다.

무슨말 이냐면 G.729 코덱의 성능의 향상을 위하여 약간의 변화를 두가지 변형이 있다고 보시면 됩니다.

 

이중에 G.729a 코덱이 대부분의 VoIP 벤더들의 기본 코덱으로 사용되고 있습니다. 시스코도 마찬가지 입니다.

더불어 시스코의 IP 폰에서 지원되는 코덱도 G.711 G.729a 코덱 두가지만 지원이 됩니.

 

여러분들이 VoIP 대한 관심이 있다면  이들 두가지 G.729 Annex 대해 아셔야 합니다.

이들은 모두 ITU 표준(Standard) 코덱 입니다.

 

또한 모두 음성을 초당 8Kbps 압축 하고 인코딩 타임(Compression Delay) 동일하게 10ms 입니다.

여기까진 동일한데그런데 몇가지 성능상의 차이점이 있습니다.

 

첫째로 가장 차이라면 G.729a 코덱은 알고리즘이 보다 단순해서 DSP 대한 부하가 G.729 비해 절반 정도 적습니다.

 

, G.729 20MIPS 이고 G.729a 10MIPS 입니다.

 

차이 때문에 하나의 DSP 칩은 동시에 두개의 G.729a 통화를 처리 할수 있는 반면에 G.729 통화는 하나밖에 지원하지 못합니다DSP(Digital Signal Processor) 칩은 NM 보이스 모듈이나 카타리스트 6500 6608모듈 이나 AS5000 시리즈의 VoIP 모듈등에 존재하는 칩이고 앞서 말씀 드렸다 시피 음성을 압축하는 부분 이라고 했습니다. 장비마다 장착 할수 있는 DSP 칩의 갯수가 한정 되어 있기 때문에 DSP 대한 부하가 얼마 인지는 중요한 요소가 됩니다.

 

예를 들면 아래 그림은 AS 5300 VoIP 모듈의 그림 입니다.

 

<그림 1>

  

<그림 2>

<그림1> AS5300 하나의 T1 모듈과 두개의 VoIP 모듈이 장착되어져서 VoIP 게이트웨이로 성되어 있는  사진 입니다.(예전에는 VoIP 모듈 대신 MICA(Modem ISDN Channel Aggregation) 모듈을 통해 PC 통신 서비스나 PPP 인터넷 접속 서비스용도로 사용되었지요.)

 

<그림2> VoIP 모듈은 <그림1> 슬롯에 장착 됩니다.하나의 VoIP 모듈에는 최대 30개의 DSP 칩을 장착 할수 있습니다.

만약 두개의 모듈을 설치하면 60개의 DSP 칩을 이용할수 있습니다.

 

이때 게이트웨이에서 사용하는 코덱이 G.729 코덱 이라면 게이트웨이는 동시에 60개의 통화만 처리할수 있습니다.하지만 사용하는 코덱이 G.729a 코덱이라면 동시에 처리할수 있는 통화는 120 개가 됩니다.DSP 칩에 대한 부하(Load) 차이가 이해 되시죠?추가해서 만약 코덱이 G.711 이라면 240개의 동시 통화가 가능합니다.

 

두번째 차이점은 MOS 값은 G.729 코덱이 약간 좋습니다.

G729 코덱은 MOS 3.92 이고 G729a 코덱은 3.9 입니다. 하지만 아주 미미한 차이죠?

 

이번엔 G.729 Annex B 입니다.

 

Annex B VAD (Voice Activity Detection) CNG(Comport Noise Generation) 정의합니다.

VAD (Voice Activity Detection) Silence Suppression 이라고도 합니다.

 

사람의 전화 통화시에 거의 절반 정도는 침묵 입니다.

, 저쪽에서 말을 하면 이쪽은 듣기만 하고 반면에 이쪽에서 말을 하면 저쪽은 듣기만 한다는 것이.

기존의 TDM 환경에서는 이렇게 말을 하지 않더라도 채널이 비어있는 채로 전송이 될뿐 채널을 다른 통화 시도자에게 할당 하지는 못합니다.

 

하지만 VoIP 환경에서는 이렇게 송화자가 침묵을 경우 IP 패킷을 생성하지 않는 입니다.

그렇게 되면 일시적으로 음성이 밴드위드를 사용하지 않게 되고 이렇게 남는 밴드위드를 다른 어플리케이션 (WEB 이나 FTP) 사용할 수가 있는 것이죠.

 

이렇게 음성의 진폭값이 일정 한도(Threshold) 도달 하는지를 감지해서 패킷의 생성 여부를 결정하는 것이 VAD 입니다.

다만 VAD 사용하게 되면 말의 시작부분이나 음성의 진폭이 떨어지는 말의 끝부분은 잘려 나갈수 있습니다. 이런것을 클리핑(Clipping) 이라고 합니다.

 

그래서 음질이 나빠질수가 있습니다.시스코 게이트웨이는 디폴트로 기능이 Enable 되어 있습니다.

 

CNG VAD 관련이 있습니다.VAD 사용하게 되면 말을 하지 않는 사람이 상대방에게 아무런 음성 패킷을 보내지 않으므로 하는 사람은 당연히 수화기에서 아무런 소리도 안들리게 됩니다.이럴경우 말을 혼자서 일방적으로 오랫동안 하는 사람은 간혹 전화가 끊어졌을까 염려해서여보세?”하고 상대의 존재 여부를 확인하게 됩니다.

 

이런 상황을 방지하고 통화자들에게 통화의 안정감을 주기 위해서 VAD 시에도 일정한 잡음을 발생시키게 되는데이걸 CNG(Comport Noise Generation) 라고 합니다.

 

이러한 G.729 Annex B G.729 코덱과 G.729a 코덱 둘다에 적용됩니다.

 

오늘은 내용이 길고 새로운 용어들이 소개 되었는데요이런 용어들은 VoIP 에서 일상적으로 사용되는 용어들이니 알아 두시고요

결론은 G.729a 코덱이 VoIP 환경에서 일반적으로 가장 많이 사용되는 코덱이고 이러한 기능들을 갖고 있다는 것을 알아 두시면 되겠습니다

[출처] VoIP 개요|작성자 스펀지밥

 

오늘 부터는 VoIP 환경에서 거의(?) 필수적인 요소인 VoIP 게이트웨이에 대해 알아 보도록 하겠습니다.

 

누가 저에게 게이트웨이가 뭐고 하는거냐고 묻는다면 아마도 저는 그것만 가지고 칠동안 얘기를 나눌 겁니다.무슨 말이냐면 여러분들이 앞으로 공부하실게 그만큼 많다는 것이죠.^^

 

그럼….가장 먼저 게이트웨이란 무엇 인지에 대해 아셔야 겠지요?

한마디로 정의하자면 IP 네트워크 Non IP 네트워크를 연결 하는 구성요소 입니다.

, Packet 네트워크(IP) 스위치드 서킷네트워크를 연결 하는 구성요소 입니다.

 

그래서 IP 프로토콜과 Non IP 프로토콜간의 시그널링(Signaling) 변환 (Conversion) 당합니다.

 

제가 위에 첫줄에거의(?) 필수적인~” 이라고 했는데요.물음표를 붙인 이유는사실 엄격하게 말하자면 게이트웨이는 VoIP 환경에서 필수적인 소는 아니라는 것이죠.

 

만약 아래 <그림1> 처럼 MS 넷미팅 같은 소프트폰(Soft Phone) 프로그램으로 PC PC 간에 통화를 경우에 이것도 음성을 IP 패킷 통해 전송 하므로 VoIP 라고 할수 있습니.

 

아래 <그림1> 경우에는 게이트웨이는 사용되지 않고 있습니다.(참고로 넷미팅은 H.323 프로토콜을 이용합니다. 나중에 H.323 프로토콜에 대해서도 수회에 걸쳐서 다루도록 하겠습니다)

 

                                                                    <그림1>

 

하지만 이러한 환경은 아주 드물고 대부분의 통화를 하는 유저들은  Non IP 네트워크에 존재 합니다.

예를 들면 아래 <그림2> 처럼 어떤 회사에서 지사들 간에 VoIP 구축 했다고 하죠.

  


 <그림2>

 

그림에서 보면 사이트 간의 전화 통화는 라우터를 통한 IP 네트워크를 거치게 되어 습니다.하지만 자세히 보시면 라우터는 PBX 연결이 되어 있습니다.

 

PBX IP 장비가 아닙니다. IP 프로토콜을 이해 할수 없는 장비 입니다.

따라서 PBX 전송하는 음성이나 통화를 제어하는 시그널들은 IP 패킷이 아닙니다.

경우에 라우터는 게이트웨이로서의 역할을 수행해서 PBX 보내는 모든 시그널들을 환하여 IP 네트워크에서 사용할수 있는 형태로 변환 해야 합니다.

 

반대로 IP 네트워크에서 (Call) 처리하는 시그널링(H.323 이나 MGCP SIP 등등) PBX 이해 할수 있는 형태로 변환해야 합니다.

또한 위의 경우에 만약 어떤 유저가 같은 회사의 소속원이 아닌( VoIP 네트워크를 벗어난협력사로 전화를 하거나 자기 집으로 전화를 하려면 PSTN(전화 공중망) 거쳐야 합니다. 경우 라우터는 전화국에 있는 CO 스위치와 연결 됩니다. 경우에도 CO 스위치는 IP 장비가 아니고 따라서 라우터는 게이트웨이의 역할 필요 니다.

 

오늘의 결론은 이렇게게이트웨이는 IP 네트워크와 Non IP 네트워크 사이에서 음성 미디어 시그널의 변환을 제공하는 장비이다입니다.

 

앞으로 게이트웨이에서 사용되는 여러가지 시그널링과 필요로하는 기능들을 다룰 입니.

[출처] 게이트웨이|작성자 스펀지밥

 

오늘은 DSP 통해 인코딩된 보이스 Payload 어떻게 패킷화 되는지를 좀더 알아 보도록 하겠습니다.

앞서 칼럼에서 알아본 처럼 DSP 적용되는 코덱 알고리즘에 따라 코덱의 종류별로 보이스의 인코딩 타임은 다릅니다.

 

예를 들면 G.711 G.729   10ms 이고 G.723 30ms 입니다.

 

, DSP 통해 하나의 보이스 프레임 아웃풋이 나오기까지 그만큼의 시간이 소요 되는 이지요.이때 이러한 보이스 프레임을 어떻게 패킷화 하느냐에 따라 보이스 트래픽의 소모 밴드위드 네트워크 지연시간(Delay time) 달라 집니다.

 

아래 그림을 보시죠.


                                                                   <그림1>

 

  <그림2>

 

 

<그림1> G.711코덱을 사용했을 경우에서  Payload  값의 변화에 따른 차이를 보여 줍니.위에 있는 트럭 그림이 디폴트 경우 입니다.

DSP 에서 10ms 마다 생성되는 보이스 프레임을 2개를 모아서 패킷화 한것입니다. 경우 20ms 마다 패킷이 생성되고 Payload 160Byte 됩니다.(G.711 초당 64Kbps ,8000 Byte 이므로 20ms 160Byte 됩니다.)

 

IP 네트워크를 통해 이러한 보이스 프레임을 전달하기 위해서는 RTP,UDP,IP  그리고 사용하는 미디어 타입에 따른 데이터 링크 레이어 헤더 정보가 필요 합니다.

 

그림에서 헤더가 58Byte 보여지는 것은 이더넷일 경우를 가정한 입니다., 패킷 마다 RTP 헤더 12 Byte + UDP 헤더 8Byte + IP 헤더 20Byte + 이더넷 헤더 18 Byte = 58 Byte 붙게 됩니다.이러한 패킷이 패킷화 타임이 20ms 라면 초당 50 전송 됩니다.따라서 G.711 경우 필요한 밴드위드는 Payload (64Kbps) + Overheader ( 23.2Kbps) = 87.2Kbps 됩니다. (<그림2> 계산 수식 참조)

 

<그림1> 아래 트럭 그림은 Payload 사이즈를 보다 60 ms 만큼 모아서 늘렸을 경우 입니.

 

경우는 60ms 이므로 DSP 보이스 프레임 아웃풋을 6(80Byte *6 = 480 Byte) 모으 됩니다.따라서 60ms 마다 패킷화가 이루어져 전송되므로 초당 16.7 정도만 전송이 됩니다.이 경우는 오버헤드가 20ms 보다 훨씬 줄게 되어서 필요한 밴드위드는 Payload (64Kbps) + Overheader ( 7.75Kbps) = 71.75Kbps 됩니다. (<그림2> 계산 수식 참조)

 

, G.711 Payload 경우 모두 동일 하지만 패킷화 타임에 따라 소모하는 밴드위드는 달라 집니다.

 

여러분들이 보시기에 위의 두가지 경우에서 어떤게 낫습니까?

 

밴드위드 측면에서 보자면 당연히 오버헤더가 작아서 밴드위드 소모가 적은 아래의 경우가 낫지요.하지만 이렇게 패킷화 시간을 길게 잡으면 실시간 트래픽의 성격에 맞지가 않습니다.실시간 트래픽은  빠른 전송이 필요합니다. 만약 너무 늦어지면 원활한 통신이 방해가 됩니.따라서 G.711, G.729 디폴트 인코딩 타임이 20ms 되어 있는 이지요물론 경우에 따라 얼마든지 변경이 가능하구요.

 

시스코 라우터 에서는 IOS 명령어로 이것의 수정이 가능 합니다.아직은 라우터의 구성 명령어를 소개해 드리지 않겠습니다.사실 지금까지 배운 내용으로 구성 할수 있는 것들이 별로 없거든요.아래 내용은 별도의 설명을 드리지 않겠습니다.그냥 참조만 하세요;

 

Dial-peer voice 1 voip

Destination-pattern 3501

Session target ipv4:10.0.2.3

Codec g711ulaw byte 480 (코덱을 지정하고 Payload 사이즈를 설정하는 명령어 입니. 디폴트는 “codec g729r8 byte 20” 입니다.)

[출처] VoIP 개요|작성자 스펀지밥

 

그럼 오늘 칼럼의 내용은 보이스의 패킷화 입니다.

 

지금까지는 아날로그 보이스가 어떻게 디지털화 하는지, 그리고 어떻게 압축이 되어 지는지 알아 보았구요.이렇게 변화된 보이스 프레임은 바로 전송 될수가 없습니다.상대방의 IP 주소 라든지, 소켓 넘버등의 필요한 정보가 붙어야 합니다.

이렇게 데이터를 네트워크상에 전송하기위해 필요한 정보를 붙이는 것을 인켑슐레이션 이라 하지요?이러한 인켑슐레이션 작업 때문에 각각의 보이스 코덱 아웃풋은 실제 네트워크로 전송될  보다 많은 밴드위드가 요구 되어 집니다.

 

예로써 전용회선 같은 WAN 구간에서  G.711 82Kbps(Payload;64K + Overhead: 18K) , G.729a 26Kbps(Payload:8K + Overhead:18K, 오버헤드 때문에 배보다 배꼽이 큰경우가 되죠?) 정도의 밴드위드가 필요 합니다.

 

오늘은 이렇게 디지털 시그널로 변환된 보이스가 IP 네트워크에서 IP Packet 으로 어떻게 들어 지고 어떻게 전송이 되어지는지를 알아 보겠습니다.

 

아래 <그림1> 보시죠.

  

 

<그림 1> (그림이 허접 한데요양해해 주세요.)
 

<그림1> 넷미팅 같은 보이스 어플리케이션을 사용하는 PC 간의 보이스 전송시에 보이스 패킷의 처리 과정을 보여 주고 있습니다.실제로  <그림1> 처럼 보이스 패킷이 전달되기 위해서는 과정에 앞서서 송수신 단말간에 사용하는 프로토콜 (H.323,MGCP,SIP,Skinny등등) 따라  셋업 과정과 파라미터협의 (Negotiations) 과정이 수행되어져야 합니다.

 

이러한 내용은 추후에 다루어 겁니다.어쨌든 이러한 과정이 문제없이 진행되었다고 가정하고 이제 실제 미디어 스트림이 송된다고 보았을 보이스의 처리 과정을 보도록 하지요. 차례대로 보면은요

 

(1)어플리케이션(넷미팅이나 소프트폰 등등)에서 보이스 Payload 발생시킵니다.

 

기에서는  160Byte 되어 있죠? G.711 경우는 디폴트 Payload 사이즈가 160 Byte 니다. G.711 코덱은 10ms 마다 보이스의 Digitization 발생됩니다. (이걸 앞서 인코딩 타임이라 했습니다.참고로 G.729 10ms 이지요?) DSP 통해서 보이스 아웃풋 샘플이 10ms 마다 생기는 이지요패킷을 구성시에 이러한 아웃풋을 두개를 모아 만듭니다. 두개를 모으는 이유는  보이스 래임 하나당 하나의 패킷을 만들면 오버헤드가 너무 커지기 때문 입니다. 그러니까 디폴트일 경우 G.711 패킷의 생성은 20ms 걸리는 이지요. G.711 초당 (,1000ms) 전송 트래픽이 64Kbps(8,000Byte) 이므로 10ms 마다  발생되 

보이스 Payload 80Byte이고 20ms 모으면 160Byte 됩니다.

 

(2) 어플리케이션에서 만들어진 보이스 Payload RTP 프로토콜을 거치게 됩니다.

 

RTP 프로토콜은 나중에 칼럼에서 자세하게 따로 소개해드릴 중요한 프로토콜 입니다일단은 RTP 라는 프로토콜은 IP 네트워크에서 보이스나 비디오와 같은 멀티미디어 트래픽 전송하기위해 사용되는 프로토콜이라고  알아두시고요 RTP 프로토콜은 UDP 프로토콜 기반에서 동작 합니다. 기본 RTP 헤더는 12 바이트 입니다.

 

다음으로는

 

트랜스포트 레이어에서 상대방 (Destination) UDP 포트 넘버가 여기에서는 5004 으로 켑슐레이션 됩니다. 앞서 말씀 드린 처럼 이앞서의 과정에서 파라미터 협의(Negotiation)과정 있다고 했는데 과정에서 상대방(수신측) 송신측 에게 보이스 트래픽을 전송할 사용하도록 알려준 UDP 포트 넘버입니다. 따라서 RTP 사용하는 UDP 포트는 항상 Dynamic 하게 결정 됩니. 참고로 이러한 UDP 헤더는 8 바이트 입니다.

 

(3) 이제 네트워크 레이어 입니다. 네트워크 프로토콜이 당연히 IP 이니까…20 바이트의 IP

 

헤더가 인켑슐레이션 됩니다. 여기에서는  자신의 IP 10.0.1.2 상대방 IP 10.0.2.3 으로 인켑슐레이션 됩니다.

 

(4)데이터링크 레이어 에서는 피지컬 어드레스를 인켑슐레이션 합니다.

 

시나리오 에서는 보이스 콜의 상대방 IP 리모트 서브넷에 존재 하므로 디폴트 게이트웨이 IP 10.0.1.1. 대해 ARP 수행하고 디폴트 게이트웨이인 10.0.1.1 맥어드레스로 인켑슐레이션 하게 됩니다여기에서 18 바이트의 이더넷 헤더가 붙게 됩니다.

 

(5) 디폴트 게이트웨이는 목적지 주소가 자신으로 되어있는 프레임을 수신하고 프레임 더를 벗겨내고 IP 헤더를 확인합니다.

 

(6) 그리고 라우팅 테이블을 확인하여 패킷의 목적지 IP 주소인 10.0.2.3 네트워크의 아웃바운드 인터페이스와 인켑슐레이션 타입을 알아 냅니다.

 

(7) 패킷이 해당 인터페이스로 스위칭 되고 미디어 타입에 맞게 인켑슐레이션 되어져서 전송 됩니다.

 

(8)다음 홉에 있는 라우터 역시 앞서와 같이 라우팅 테이블을 참조합니다.

 

(9) 이경우는 자신의 이더넷 인터페이스의 서브넷이 10.0.2.0 네트워크 이므로 10.0.2.3 스트에 대해 ARP 수행해서 맥주소를 알아내고 패킷을 다시 새로운 프래임 헤더로 인켑슐레이션해서 전송합니다.

 

(10)이제 목적지 호스트는 목적지 주소가 자신으로 되어 있는 이더넷 프레임을 수신하고 프레임 헤더를 벗겨내고 네트워크 레이어로 올립니다.

 

(11)네트워크 레이어 에서는 목적지 IP 자신임을 확인이 되면 UDP 헤더의 포트 넘버를 인하고 해당 포트로 넘깁니다.

 

(12) 해당 UDP 포트를 사용하는 RTP 프로토콜에서 수신된 보이스 트래픽에 대한 처리를 행합니다.( 추후에 다루겠습니다.)

 

(13) 수신된 보이스 Payload 어플리케이션에 의해 바로 재생되지 않고 일시적으로 버퍼링 하고 버퍼가 100% 되면은 어플리케이션에 의해 재생이 됩니다. 이때 사용되는 버퍼를 Jitter 버퍼 또는 Dejitter 버퍼 라고 합니다.

 

여러분들이 윈도우의 미디어 플레이어 같은 툴로 인테넷상의 멀티미디어 프레임을 수신할  이러한 버퍼를 이용하는 것을 보셨을 겁니다이렇게 버퍼링을 하는 이유는 IP 네트워크상에서 미디어 프레임의 전송 속도가 일정치를 하기 때문에 끊김없이 규칙적인 재생을 하기 위함 입니다. 이러한 동작도 RTP 프로토콜이 관여 됩니다.

 

오늘 내용이 길었죠? 사실 간단한 그림인데글로 풀어 쓰면 상당히 길어 지는군요.

 

다음 시간에는 패킷의 오버헤더에 대해 알아 보도록 하겠습니다.제가 칼럼을 진행하면서 아직은 설명하지 않고 있는 용어들이 불가피하게 간혹 나옵니다.예를 들면 위에서 H.323,MGCP 라든지 RTP 같은 용어 등등요.이런 것들은 아직은 여러분들이 받아들이기엔 이른 들이기 때문에 추후에 다루어질 내용 입니다. 따라서 아직은 제가 설명 드린 내용만 받아 들이시구 그냥 그런 구나 하고 넘어가시면 니다.^^

[출처] VoIP 개요|작성자 스펀지밥

 

[VoIP 개요] 음성코덱의 종류

개발 이야기/VoIP | 2008. 9. 18. 19:18
Posted by 시반
이번장에서는 보이스 코덱의 종류와 각각의 특성을 알아 보겠습니다. 여기서 소개되는 코덱 들은 보이스 전용 코덱 입니다.

사람의 음성에 적합하게 설계된 알고리즘 들입니다.보이스 코덱도 비디오 처럼 압축률과 음성품질이 서로 Trade-Off 입니다.

압축률이 높으면 음성품질이 떨어지고 압축률이 낮으면 음성품질은 좋습니다.당연히 우리는 밴드위드의 요구가 낮으면서도( 압축효율은 높고) 품질은 좋은걸 원합니다.

 

보이스 코덱에 대해 소개 하기전에 몇가지 용어 개념에 대한 이해가 필요 합니다.

 

(1) MOS

MOS Mean Opinion Score 약어 입니다.이것은 여러 코덱을 통하여 음성을 압축했을 해당 음성의 품질을 점수화 입니다.

아래 <그림1> 보십시오.

 

 

<그림1>

 

<그림1> 에서 보듯이 특정 음성( 그림에서 Source) 특정 코덱X 통하여 품질의 저하(Impairment) 가하고 품질을 평가하는 표본집단의 구성원 들에게 들려줍니다.패널들은 Toll Quality(PSTN 통화품질) MOS = 4.0 값으로 기준을 잡고 각각의 코덱을 나온 음성의 퀄리티를 평가합니다.

 

MOS 값은 1~5 까지 이고 높을수록 퀄리티가 뛰어남을 의미 합니다.MOS 값은 코덱의 퀄리티를 표현하는 가장 보편적인 방법 입니다.

하지만 방식은 표본집단의 패널들에 의한 주관적인 평가가 강하기 때문에 보다 객관적인 평가를 위하여 ITU-T 에서 표준으로 정한 PSQM 방식을 이용하기도 합니다.

 

참고로 아래에 PSQM 방식의 이해를 돕는 그림을 첨부 합니다.

 


 

<그림2>
 

<그림 2> 에서 보이듯 방식은 사람에 의해서 평가가 되는 것이 아니라 PSQM 알고리즘에 기반한 서킷에 의해서 퀄리티가 평가 되므로 MOS 비해 객관적 입니다. PSQM 값은 0~6 까지 이고 MOS 달리 값이 낮을수록 퀄리티가 좋은 입니다.

 

 

(2) 인코딩 타임= 코덱 지연 시간

 

인코딩 타임이란 특정 코덱을 사용시 음성이 압축된 결과값을 얻는데 걸리는 시간을 말합니.

전화 통화시의 음성은 실시간 전송이 필요하므로 이러한 처리 지연 시간이 오래 걸리면 당연 정상적인 통화를 방해 합니다.

너무 지연이 심하면 무전기 통화가 되겠지요?따라서 값은 낮을수록(, 빠를수록) 좋은 입니다.

 

아래의 <1>에서 인코딩 타임 이란  DSP 칩에서 하나의 보이스 프레임 Output 내보내는 걸리는 프로세싱 타임 입니다.

결국 이것은 음성을 압축하는데 걸리는 시간이라고 이해 하시면 되겠습니다. 

참고로 음성의 수신측에서 음성의 재생(Play) 위해서는  압축된 음성을 동일한 코덱 으로 Decompress(압축해제) 해야 하는데 이때는 압축시의 지연 시간보다 1/5~1/10 정도의 시간 밖에 걸리지 않습니다.일반 데이터 압축툴도 그렇지만 압축보다는 압축해제가 빠릅니다

 

이제 여러 가지 코덱 들의 특징을 요약한  <1> 보도록 하지요.

 

코덱 종류

알고리즘

Bit Rate(B/W)

인코딩 타임

MOS

비고

G.711

PCM

64K

10ms

4.1

PSTN 통화 품질

G.726

ADPCM

16K,24K,32K

10ms

 

BW 많을수록 품질이 좋음

G.729

CS-ACELP

8K

10ms

3.9

VoIP 에서 가장 보편적인 코덱

G.728

LDCELP

16K

15ms

 

 

G.723

MLQ

6.3K,5.3K

30ms

3.9

MS 넷미팅의 기본 코덱

<1>
 

표에서 소개된 코덱 들은 ITU-T에서 표준으로 인정한 대표적인 보이스 코덱들입니다.코덱을 선택시의 주요 관점은 빠른 압축처리, 높은 압축율, 좋은 통화 품질이 되겠습니다.

이러한 관점으로 보자면 단연 G.729 눈에 띄지요?그래서 대부분의 VoIP 제품 벤더들은 자사 장비의 기본 코덱으로 G.729 사용합니다.

 

유저(User) 별도로 코덱을 지정하지 않았을땐 G.729 코덱으로 이용합니다.

 

그래서 다음 시간에는 G.729 코덱에 대하여 알아 보도록 하겠습니다.

[출처] VoIP 개요|작성자 스펀지밥

 

저번 칼럼에 이어서 오늘은 음성 코덱에 대해서 알아보겠습니다.

여러분들은 코덱 이란 용어가 익숙할 겁니다.

예로써 우리가 윈도 미디어 플레이어로 동영상을 재생할 해당 비디오의 압축 알고리즘에 맞는 코덱이 필요합니다.

원본 데이터의 압축 방식(인코딩) 대응되는 압축해제 (디코딩) 방식을 사용해서 영상을 재생하는 것이지요.

이렇듯 코덱 이란 코더과 디코더를 합성한 단어로 인코딩과 디코딩을 수행해 주는 알고리즘이나 그러한일을 수행하는 디바이스를 지칭합니다.

 

앞서 말한 PCM 이러한 음성 코덱 방식중 하나입니다.

이러한 게이트웨이의 음성 코덱의 실제적인 처리는 DSP 칩에서 이루어 집니다.

 

아래 사진을 보시죠.

 



                                                             <사진1>



                                                                <사진2>



                                                               <사진3>

 

그림 1 시스코 2600 라우터에 NM-2V 모듈이 설치되어 있는 사진 입니다.

그림 2 3 시스코의 NM-2V 모듈에 FXS,FXO 카드가 탑재된 모습의 사진 입니다.

모듈에서 반쯤 빠져나온 카드가 FXS 이고 완전히 들어가있는 카드는 FXO 카드 입니다.

CISCO 2600,3600,3700 라우터에 설치 할수 있는 보이스 모듈입니다.

그림상의 두장의 카드의 용도는 다음 기회에 설명 드리도록 하고

그림2 화살표가 가리키는 FXS 카드 위의 LUCENT 라고 프린트 되어있는 칩이 PCM 수행하는 칩입니다.

아래 그림3 NM 모듈상의 화살표가 가리키는 칩은 DSP 라고 프린트 되어있는 DSP 칩입니다. (림상으로는 글씨들이 안보이지만 실제로 그렇게 프린트 되어 있습니다.^^)

 

칩에서는 여러 가지 코덱 알고리즘에 따라 음성을 압축 합니다.

PCM 통해 음성을 디지털 시그널로 훌륭하게 변환할수 있는데 그밖의 코덱이 필요할까요?

 

한가지 문제를 극복하기 위함입니다바로 밴드위드죠.

 

비디오도 여러분이 아시는 MPEG2 MPEG4 코덱 이냐에 따라 화질과 밴드위드가 달라집니.

예를 들면 MPEG2 DVD급의 화질을 제공하지만 밴드위드는 1.5M~10M 정도가 필요하구요.

 

MPEG4 인터넷상의 스트리밍 파일을 위해 디자인 되어서 화질은 별로지만 밴드위드는 28.8Kbps~400Kbps 정도만 요구 됩니다.보이스도 앞서 말한대로 PCM에서 발생된 디지털 시그널의 요구 밴드위드는 통화당 64Kbps니다.

이것은 LAN 구간에서는 문제가 안되지만 WAN 구간에서는 무시할수 없는 밴드위드 입니다.

 

예를 들면 256K bps 전용회선에서 PCM (Call) 4 밖에 수용할수 없습니다.

이것은 음성 데이터만을 고려한 것으로 이러한 음성을 전달하기 위해서는 프레임 헤더, 패킷 헤더 부분이나 세그먼트 헤더와 같은 오버헤드가 필요하니(이런 작업을 인캡슐레이션 이라고 하지요) 제로는 4개의 통화 수용을 못합니다.

 

그러기에 제한된 밴드위드 상에 보다 많은 통화를 지원하기 위해서는 적절한 코덱을 사용하여 음성 압축하여야만 합니다.

 

예를 들면 G.729 코덱을 사용하면 64Kbps 음성을 8Kbps 압축 할수 있습니다.

 

오늘은 음성 코덱의 필요성에 대하여 알아 보았습니다.

다음시간에는 실제적인 음성 코덱의 종류와 특징을 알아보도록 하겠습니다.

 

[출처] VoIP 개요|작성자 스펀지밥

'개발 이야기 > VoIP' 카테고리의 다른 글

[VoIP개요] 음성의 패킷화(Packetization) 1  (0) 2008.09.18
[VoIP 개요] 음성코덱의 종류  (0) 2008.09.18
[VoIP의 개요] 음성변조  (0) 2008.09.18
VoIP의 필요성  (0) 2008.09.18
VoIP의 활용사례  (0) 2008.09.18
 

[VoIP의 개요] 음성변조

개발 이야기/VoIP | 2008. 9. 18. 18:09
Posted by 시반
 이번장에서 알아볼 내용은 음성변조입니다.

 음성 변조라 하니 TV에서 범죄자들이 나올 목소리를 바꾸는 거로 생각하실지 모르겠는데.

 그런것도 음성변조 이지만 여기서의 음성변조는 다른 얘기입니다.

 

우리가 통화를 전화기의 송화기로 말을 하게 되면 음성은 아날로그 시그널의 형태로 전화선을 타고 나가게 됩니다.

그런데 우리가 일반적으로 사용하는 PSTN 망도 가입자 구간을 제외한 나머지 대부분은 지털 네트워크이고 IP 네트워크도 디지털 네트워크 이므로 어디에선가는 이러한 아날로 시그널을 디지털 시그널로 변조를 해줘야 합니다.

 

어디에서 이런일을 할까요?

 

PSTN 에서는 CO(Central Office)스위치가 하며 VoIP 네트워크 에서는 게이트웨이(Gateway)에서 이걸 담당 합니다.

그리고 이러한 변환을 A/D Conversion 이라고 하지요

일단 VoIP 사용하려면 이렇게 아날로그 시그널을 디지털 시그널로 변환 하는게 필수적인 프로세스가 됩니다. 그래야 IP 패킷을 만들수가 있지요.

 

아래 그림은 사람의 목소리와 관련된 주파수의 범위를 표현합니다.



                                                                <그림1>

 

그림에서 보면 사람이 들을수 있는 가청 주파수 대역은 20KHz이고 발성이 가능한 주파수 대역은 8.5 KHz 이며 전화선에서 지원하는 음성의 최대 주파수 대역은 4KHz 입니다.

 

이렇듯 전화선은 사람의 원래 음성주파수의 절반만 표현해주지요.

이러한 왜곡 때문에 간혹 전화 통화를 할때 형이나 언니의 목소리가 동생의 목소리와 비슷하 들려서 실수할때도 있지요.^^

 

제가 여기서 음성에 관련한 주파수를 설명하는 것은 샘플링 이론(Nyquist 이론) 설명하기 위함 입니다.

샘플링 이론이란 오리지널 음성의 최대 주파수(4KHz) 최소 2 이상(, 8000 이상) 샘플링하면 시그널의 목적지에서 이것을 복원하여 원래의 음성을 복원할수 있다 입니. 이론에 근거하면 4KHz 전화선상의 음성을 그것의 최소 2배인 8000 샘플링하면 목적 

지에서는 샘플들을 근거로 원래의 음성을 복원 할수 있다는 입니다.

 

아래 그림은 CO 스위치나 게이트웨이에서 수행하는 샘플링을 표현한 그림 입니다.
                        

                                                              <그림2>

 

그림에서 아날로그 시그널의 진폭값은 125ms( 1/8000 ) 간격으로 샘플링 되며 샘플 8비트로 인코딩 됩니다.
따라서 그림에서 보듯 1초에 8Bit * 8000 = 64000Bit (64Kbps) 되는 이지요.
이러한 인코딩 방식을 PCM (Pulse Coded Modulation) 이라고 합니다.
 
음성의 인코딩 방식중 가장 보편적인 방식이고 현재 PSTN 네트워크에서 사용중인 방식 지요. VoIP 환경에서도 밴드위드가 풍부할 경우에 좋은 음성품질을 얻기 위해서 게이트웨이에 적용되는 방식 입니다.시그널의 목적지에서는 그림의 반대로 디지털 시그널이 아날로그 진폭값으로의 변환(D/A컨버젼) 수행 되어서 사람이 수화기를 통해 목소리를 듣게 되지요.
 
참고로 방식에 근거해서 64Kbps DS-0 라는 속도의 기저 단위로 정의 하였습니다.
, DS-0 채널이 24개이면 T1, 32 이면 E1 으로 부르지요.이러한 PCM 인코딩 방식을 G.711 코덱 이라고 부릅니다.
 
 이번장에서는 음성이 VoIP 같은 디지털 네트워크를 통해 전송되기 위해서 디지털 시그널로 변환되는 과정을 알아 보았습니다.
용어도 생소한 것이 약간 나오고 어려우셨나요? 쉽게 설명해보자고 노력 해도 그다지 쉽지가 않군요….
 
차근차근 다시 한번 읽어 주시기 바라구요
 
다음 칼럼은 이번호의 주제에서 연결 되는 내용이니 오늘 내용을 이해해 주세요

[출처] VoIP 개요|작성자 스펀지밥

'개발 이야기 > VoIP' 카테고리의 다른 글

[VoIP 개요] 음성코덱의 종류  (0) 2008.09.18
[VoIP 개요]음성코덱의 개념과 필요성  (0) 2008.09.18
VoIP의 필요성  (0) 2008.09.18
VoIP의 활용사례  (0) 2008.09.18
IP 텔레포니와 VoIP  (0) 2008.09.18
 

VoIP의 필요성

개발 이야기/VoIP | 2008. 9. 18. 17:09
Posted by 시반

그레이헴 벨이 전화기를 발명한 이후 근 130년이 넘게 음성 통신은 우리가 아직도 일반적으사용하는 PSTN (Public Switched Telephony Network)망을 사용하고 있습니다.PSTN 이란 전화 공중망을 말합니다.

 

쉽게 보자면 전화국을 통해서 통화를 하는 것 이지요.

 

이 PSTN 망은 인터넷 프로토콜을 사용하지 않습니다.

대부분의 사람들은 현재의 전화 서비스에 별다른 불편함을 느끼지 못하고 있습니다.적어도 지금까지는 말이죠…

그런데 왜?.. 음성이 어떤 프로토콜을 이용하여 전송되는가가  이슈가 될까요.

 

앞서 말씀 드린 대로 아직까지 별 불만 없이 사용해오던 PSTN 망 기반의 음성 통신을 왜 IP 기반으로 전환하려 할까요.

여러분들이 아무리 VoIP 테크놀러지를 기술적으로 잘 안다고 하더라도 누군가 여러분에게

그런데 도대체 그게 왜 필요한 건데? 하고 물었을 때 대답을 못한다면 차라리 VoIP 에 대해 전혀 모르는 것 보다 더한 망신 입니다. ^^

 

그 이유에 대하여 반드시 알아야 겠습니다.

 

가장 큰 필요성은 비용절감 입니다.

공학(Engineering)은 순수 과학(Science)의 응용인데 가장 큰 기준점중의 하나는 경제성 입니다.

 

공학적인 관점에서는 아무리 획기적 이어도 경제성이 없는 테크놀러지는 선택 받지 못합니.

마치 프랑스의 콩코드가 세계에서 가장 빠른 여객기이면서도 결국엔 외면 받은 것 처럼 말이.

아래 그림을 살펴 보시죠

                                                             <그림1>

                                                               <그림2>         

              

앞의 (그림1) 처럼 현재 대부분의 기업 네트워크는 음성망과 별도의 데이터 네트워크를 소유하고 운영합니다.
결국 음성 따로 데이터 따로 의 이중(Dual)의 인프라를 운영하는 것이죠.
이런 이중의 네트워크 인프라를  (그림2)의 VoIP 처럼 하나로 통합하는 것을 컨버지드( Converged ) 네트워크라고 합니다.
 
VoIP 처럼 두가지 타입의 트래픽을 하나의 네트워크를 이용하여 전송한다면 여러 가지 측면에서 비용이 절감됩니다.
일단은 장비가 통합되니 투자비가 절감됩니다. 또 네트워크 컴포넌트가 줄어드니 네트워크의 장애 요소도 같이 줄어들겠죠?
이건 비용 외의 부수적인 이득 입니다.
 
또 전송 미디어가 통합되니 현재 보다 링크의 활용도(Utilization)를 높일 수 있으며 또 민감한 문제이긴 하지만 인력에 관한 부분도 효율적인 운영이 이루어 질 수 있습니다.
 
통합된 네트워크에 투자되는 비용은 이제 음성 과 데이터 네트워크 모두에 동시에 투자가 되어 집니다.
이런 직접적인 비용 절감 외에도 간접적인 부분에서의 효과가 있습니다.
 
예를 들자면 이제 기업에서는 PSTN 망의 SS7같은 폐쇄적인 프로토콜이 아닌  IP 와 같은  보편적이고 오픈된 프로토콜 기반에서 보다 용이하게 해당 기업이 필요로 하는 음성 어플리케이션을 개발 할 수 있게 되어 집니다.
 
이와 같은 몇 가지 사례에서 보듯이 컨버지드 네트워크는 기업들이 VoIP 로 전환 하게할 충분한 사유를 가지고 있는 것 입니다.
 
내용은 길었지만 간단하게 결론은 VoIP를 이용하면 비용이 절감된다 입니다.

 

'개발 이야기 > VoIP' 카테고리의 다른 글

[VoIP 개요]음성코덱의 개념과 필요성  (0) 2008.09.18
[VoIP의 개요] 음성변조  (0) 2008.09.18
VoIP의 활용사례  (0) 2008.09.18
IP 텔레포니와 VoIP  (0) 2008.09.18
SOA와 VoIP 서비스  (0) 2008.09.18
 

VoIP의 활용사례

개발 이야기/VoIP | 2008. 9. 18. 17:03
Posted by 시반
1. Voip 기술과 현재 활용사례

 

VoIP(Voice over Internet Protocol)란?

IP network을 이용해 voice와 data를 전송하는 기술로 기존에 사용된 음성 통화망의 TDM방식과 Circuit Switching 방식을 사용하지 않고 음성의 Analog 신호를 Digital 신호로 압축하고, IP Packet으로 변환하여 Internet을 통하여

Voice, Data, Video 서비스를 제공하여 인터넷 텔레포니(Internet Telephony)를 가능하게 한 통신 기술이다.

 

 

VoIP 기술은 음성 신호를 전통적인 PSTN에 전송하는 것이 아니라, 게이트웨이에서 음성 신호를 표준 규격

(G.711, G.729A, G.723.1)에 맞게 압축해 상대 게이트웨이로 전송함으로써 음성 통화를 하는 것을 의미한다.

여기에는 지속적으로 연결이 유지돼야 하는 데이터 네트워크에, 돌발적으로 발생하는 음성 통화의 트래픽을 함께

전송할 수 있도록 하는 기술이 요구된다. 많은 통신업체들은 물론이고 시장은 IP에서의 음성 통합을 대세로 인정하고 있다.

그러나 이미 PBX 기반의 인프라 구축이 많은 만큼 이를 수용하면서 점진적으로 IP로 넘어갈 수 있도록 하는 경로가 다양하게 제시되고 있다. 게이트웨이와 소프트스위치 등은 이런 차세대 네트워크의 기본으로, IP 디바이스 간의 호를 지능적으로 처리해 미디어 게이트웨이를 통해 PSTN과 통합된다.

출처 : 데이콤 Voip overview 문서, Tong - 다모아Tong님의 IT관련 자료통

 

 

2. Voip 기술 장.단점

 

- 장점

 

1. 일단 장비가 구축이 되면 통신요금이 일반전화에 비해 30~60% 정도 저렴하다.

2. 여러 가지 부가서비스를 활용할 수 있다.

 

- 단점

 

1. 통신장비 구축 비용이 많이 든다.

2. 통신 품질이 떨어진다. (패킷의 지연이나 손실의 우려)

3. 통신 보안이 취약하다.

 

 

3. Voip 실제 활용에 따른 이득과 보완대책

 

- VoIP를 도입하는 주요 이유.

 

1.통신 비용 절감을 위해 66%

2.음성과 데이터 네트워크의 통합을 위해 43%

3.두 분야 이상에서의 원스톱 커뮤니케이션 구현 위한 기술 플랫폼을 마련하기 위해 41%

4.두 분야 이상에서의 협업을 위해 36%

5.관리의 용이성을 위해 31%

6.확장성을 위해 24%

7.기타 14%

비고: 복수 응답 허용

대상: 현재 VoIP를 사용하고 있거나 계획 중인 업체 280곳

출처: 320명의 기업 기술 전문가를 대상으로 한 인포메이션위크 리서치의 VoIP 설문조사

 

 

VoIP의 활용사례.

 

- 활용 사례 1

버진 엔터테인먼트 노스 아메리카가 지난 8월에 VoIP를 도입했을 때, 시스템이 제공하는 주요 기능 중 하나가 음성 메일을 이메일 시스템과 결합시킨 통합 메시징이었다. 버진 엔터테인먼트의 CEO인 사이먼 라이트가 VoIP 도입을 결정했을 때, 도입 이유는 비용 절감이었으며, 통합 메시징은 논의조차 되지 않았다. 라이트는 어느날 자신의 음성 메일이 이메일 수신함에 뜨는 것을 보고 놀라지 않을 수 없었다. 그는 별도의 비용이 청구될까봐 즉시 알아보라고 했으며, 무료라는 말에 안도할 수 있었다. 그로부터 2주일이 지난 뒤, 그는 자신의 모든 메시지를 한 곳에서 확인할 수 있다는 것에 매우 만족해했으며, 자신이 회사에 들어오고 난 이후 VoIP를 도입한 것이 가장 잘한 일이라고 말할 정도이다. 이 회사는 현재 VoIP를 다른 커뮤니케이션 플랫폼과 연동해 직원들의 협업을 향상시킬 수 있는 방안을 모색하고 있다.

 

- 활용 사례 2

인력 대부분을 메릴랜드 본사로 통합하는데 분주한 미국 식품의약국(FDA)은 통합 커뮤니케이션을 적극 활용하고 있다. FDA는 18,000명에 이르는 직원들과 15개 빌딩에서의 협업을 높이기 위해 VoIP를 도입했으며, IP 화상회의도 추진하고 있다. 일부 과학자와 연구원들의 경우 데스크톱에서 시스코의 IP 커뮤니케이터 통합 커뮤니케이션 애플리케이션에 이미 액세스하고 있으며, 통합된 음성과 비디오, 데이터를 통해 구내에서 프로젝트에 대한 협업이 가능하다. 이를 통해, 한 과학자가 실험실에서의 약품 분석 결과를 동료에게 설명하거나 텍스트나 데이터를 통해 결과를 보내는 등의 작업을 동일한 인터페이스를 통해 동시에 진행할 수 있다. FDA의 CIO인 글렌 로저스는 “이제 전화는 과거처럼 단순한 전화가 아니다”라고 밝혔다.

 

- 활용 사례 3

시애틀의 MTM 호텔 1000의 경우, 80개의 객실마다 3대의 IP 폰을 설치했으며, 호텔 맨위층의 럭셔리 객실에 47대의 IP 폰을 설치했다. 이 호텔의 짐 심킨스 부사장은 “프로그래밍이 가능한데다 외관도 수려하다”면서, “오늘의 점심 특선 메뉴를 액정에 띄울 수도 있으며, 가상의 관리인 역할도 제공한다”고 말했다. 프로그래밍이 가능하다는 예는, 투숙객이 차량을 호출하고 싶을 때, 자신의 객실에 설치된 VoIP 폰의 버튼을 눌러 발레 데스크에 연락하면 투숙객의 차량 위치를 즉시 확인할 수 있다.   

 

출처: 이플님의 블로그에서 퍼온글...(컴퓨터월드 2006년 9월호/InformationWeek)

'개발 이야기 > VoIP' 카테고리의 다른 글

[VoIP의 개요] 음성변조  (0) 2008.09.18
VoIP의 필요성  (0) 2008.09.18
IP 텔레포니와 VoIP  (0) 2008.09.18
SOA와 VoIP 서비스  (0) 2008.09.18
VoIP, 통화 음질이 전부는 아니다  (0) 2008.09.18
 

IP 텔레포니와 VoIP

개발 이야기/VoIP | 2008. 9. 18. 16:50
Posted by 시반

출처 : Passion & Masstige Life
인터넷전화, IP텔레포니, VoIP 등의 용어를 이제는 흔히 접할 수 있는 가운데 올해부터는 시내전화 사업자가 VoIP 서비스를 제공할 경우 기존 일반전화(PSTN)와 품질 및 이용조건이 같다면 VoIP에도 시내전화 번호사용이 가능해졌다. 또한 일반회사에서도 통신비용 절감을 위해 VoIP를 검토하고 구축하는 사례가 증가하면서 IP텔레포니 시장이 확대, 지난해를 기점으로 기존 서킷방식의 음성 트래픽 양을 넘어설 전망이다. 이에 2회에 걸쳐 IP텔레포니를 기업에서 어떻게 구축하고 활용하고 있는지 알아본다.

인터넷전화 용어와 원리
VoIP(Voice over Internet Protocol)와 인터넷전화 사이에는 어떤 관계가 있을까? 인터넷전화를 이용해 상대방과 통화하기 위해서는 아날로그 음성을 디지털 신호로 바꾼 후 이를 인터넷망을 통해 전송해야 하는데 이때 디지털 신호 형태로 음성을 송수신하기 위해 사용되는 프로토콜을 통칭해서 VoIP라고 한다.
현재 IP텔레포니, VoIP, 인터넷전화 등 여러 용어들을 같은 의미로 사용하고 있는데 국제전기통신연맹(ITU)은 사설망, 전용망을 경유하면 VoIP, 공중망을 경유하면 인터넷전화, 사설망, 전용망, 공중망을 경유한 이른바 통합개념에는 IP텔레포니를 권고하고 있다. 인터넷전화의 기본 원리는 사람의 목소리를 디지털 신호로 변환해 인터넷을 통해 상대방에게 송신하고, 이를 수신한 곳에서는 디지털 신호로 받은 음성정보를 다시 아날로그 신호 형태로 바꿔 상호통화를 가능케 하는 것이다.
이렇게 하기 위해서는 샘플링이 필수적이다. 샘플링은 ‘오리지널 음성의 최대 주파수(4KHz)의 최소 2배 이상인 8천회 이상을 샘플링하면 시그널의 목적지에서 이것을 복원해 원래의 음성을 복원할 수 있다’는 나이키스트(Nyquist) 원리로 4KHz의 전화선상의 음성을 2배인 8천번 샘플링하는 것으로 1초의 음성파형을 64Kbps(초당 8비트×8천회 샘플링=64000Bit=64Kbps)로 만든다. 이 원리를 이용해 64Kbps, 128Kbps 속도 등의 전용회선이 생겨나게 됐고, 64Kbps 24채널을 묶어 T1 회선이라고 한다



음성 샘플링 채널당 64Kbps는 인터넷망이나 사설망에서 통신하기에는 용량이 커 압축을 해서 보낸다. 압축방식은 다양하지만 압축율이 좋을수록 압축을 풀었을 때 음성품질은 떨어진다는 단점이 있다. 압축방식별로 음성품질에 대한 성능을 수치화한 것이 MOS(Mean Opinion Score)라고 한다. MOS 숫자는 1~5까지로 수치가 클수록 음성품질이 우수한 것으로 <표 1>을 참조하기 바란다.
현재 VoIP 기술 관련 표준화는 ITU-T와 IETF에서 주도적으로 진행되고 있다. ITU-T에서는 H.323 시스템 기반의 표준을 제정하고 있고, IETF는 HTTP와 유사한 형태의 SIP를 중심으로 표준화를 진행하고 있다. 그리고 개방화와 표준화를 기반으로 한 소프트웨어 플랫폼인 소프트 스위치 개념이 도입돼 매우 융통성 있는 서비스를 할 수 있는 기초가 마련됐으며, 메가코(MEGACO)/H.248이라는 표준이 제정됐다.



H.323은 가장 많이 사용되고 있으며 랜 환경에서 멀티미디어 통신을 지원하기 위해 개발된 VoIP 프로토콜은 대규모 사용자에 대한 한계가 있다. 차세대 VoIP 표준으로 기대되는 SIP는 클라이언트/서버 구조로 돼 있어 유지보수와 관리, 호환성, 확장성, 유연성 등이 우수해 최근 제품은 이 두 가지 표준을 모두 지원하는 추세다.

IP텔레포니 구성 및 활용
IP텔레포니는 구성방식에 따라 <그림 3>과 같이 폰 투 폰, 폰 투 PC, PC 투 PC 등으로 구분된다. 1995년 처음으로 인터넷폰을 개발한 보칼텍(Vocaltec)에서 같은 시간에 보칼텍의 동일한 프로그램을 통해 인터넷폰 서버로 접속한 후 통화하는 방식인 PC 투 PC는 송신자가 PC 마이크를 통해 말하는 것으로 통화자가 PC 앞에 있을 때만 통화가 가능해 불편하고 음질이 떨어지는 문제점으로 사용을 하지 않는다.
폰 투 PC는 인터넷폰 클라이언트 프로그램을 <그림 4>와 같이 설치하면 PC끼리는 물론 일반전화나 휴대전화로도 전화를 걸고 받을 수 있다. 또한 음성사서함, 문자채팅, 다자간 통화, 메신저 등의 여러 기능이 제공되고 있으며 비용은 국제통화 요금은 1분당 40원이고 가입자간 국제통화 요금은 무료인 경우도 있다. 폰 투 폰은 가장 일반적으로 구성하는 방식이며 여러 제품들이 출시돼 있다.

기업형 IP텔레포니 활용사례
기업에서는 IP텔레포니를 IPCC(IP Contact Center) 등에 활용하고 있다. IPCC는 ‘VoIP를 이용하는 콜센터’라는 의미다. 그럼 기존 콜센터와의 차이점은 무엇일까? 초기 콜센터는 PABX 교환기를 이용한 제품안내, A/S 등의 안내전화 서비스로 시작을 했다.
하지만 IPCC는 CRM과 연동해 사용자가 전화를 걸어서 사용자 정보 및 제품번호 등을 전화버튼으로 입력하면 상담원 컴퓨터에서 그간의 장애신고 내역이나 제품정도 등도 나와 전문 상담원이 이에 맞는 대응이 가능해 상담의 질을 높일 수 있다. 모 카드회사에서는 IPCC와 CRM을 연계해 1년 사이 골프 관련 매출이 일어난 회원을 대상으로 골프업체의 할인과 무이자서비스를 DM(Direct Mail)을 통해 알려줘 회원들의 카드사용이 늘어나 회사 이익과 연결되는 결과를 얻었다.



특히 예전의 콜센터는 한 건물에 모여 콜센터 안내를 했지만 IPCC는 인터넷이 되는 곳이면 어디든 전화를 받을 수 있어 <그림 5>와 같이 원거리의 재택근무도 가능한 점도 있다. 또한 전화라인 공사가 필요없이 기존 랜을 이용하고, PBX 교환기 대신 IP 교환기를 설치하면 설치 공간이 축소되고 비용도 절감되는 여러 장점이 있다. IPCC의 적용대상은 <표 2>를 참조하길 바란다.

VoIP 구축사례
일반 기업에서의 VoIP 구축사례를 살펴보자. 국내 본사와 미국 지사간의 업무상 잦은 통화가 발생한다. 본사와 지사의 월 국제통신비는 수 백만원이 발생해 이에 대한 절감을 위해 VoIP 구축을 결정했다.
먼저 장비설치를 보면 기본적인 인터넷 환경은 구현돼 있어서 VoIP 게이트웨이를 각각 1대씩 구매했다. VoIP 장비에는 H.323, SIP 2개의 프로토콜을 지원하며 4채널 FXO(Foreign eXchange Office) 포트를 제공한다. FXO 방식은 VoIP 장치의 인터페이스의 하나로 PBX의 익스텐션(Extention) 또는 국선을 연결해 사용이 가능하다. 그리고 지사의 회선대역폭은 기존 384Kbps로 VoIP 4채널에 대한 음성 트래픽을 고려해 512Kbps로 증설했다.
사무실의 전화기에 시내/외 통화를 할 때는 ‘9’번을 누르고 PBX 교환기를 통해 외부로 전화연결을 했고, VoIP 게이트웨이가 설치되면서 별도의 인식번호가 필요하게 됐다. 따라서 본사 PBX 장비에 ‘82’번을 등록하고 지사 PBX에 ‘01’번을 등록했다. 본사에서 지사 2222 내선번호로 전화를 걸려면 8-01-2222를 누르면 지사 전화기에서 신호벨소리가 울려서 통화가 되는 방식이다. 즉, ‘8번’을 누르면 본사 PBX에서 신호경로를 한국 VoIP 게이트웨이 쪽으로 연결을 하며 ‘01번’을 누르면 미국 VoIP 게이트웨이로 연결되고 ‘2222’ 내선번호를 누르면 미국 전화기에서 벨이 울리게 되는 것이다.


<한국 본사 VoIP 장비 설정>
Hostnam seoul ----(1)
Interface ether0.0 ----(2)
ip address 191.168.1.2 255.255.255.0
Route 0.0.0.0 0.0.0.0 191.168.1.1 ----(3)
Dial-peer voice 0ports ----(4)
Destination-pottern 82T
Port 0/0
session target 191.168.2.2 ----(5)
codes g7231r63
gateway ----(6)
h323-id voip.203.254.216.100



(1) VoIP 장비의 호스트 네임 설정부분으로 보통 지점명이나 지역명을 등록한다.
(2) 외부로 연결되는 인터페이스의 IP주소를 설정한다.
(3) 디폴트 라우터를 설정한다. 만일 목적지 네트워크 경로가 설정되지 않았더라도 데이터그램을 버리지 않고 디폴트 라우터 주소로 전송한다.
(4) 서울 본사의 VoIP 호설정을 정의한다.
(5) VoIP를 연결할 목적지 주소를 정의한다. 또한 코드 압축방식을 설정한다. G723.1 코덱 타입으로 6.3kbps 대역폭 사용을 설정한다.
(6) 서울 본사 VoIP 게이트웨이에 H.323 방식 통신을 정의한다.


<한국 본사 라우터 설정>
policy-map voippolicy // 라우터에서 VoIP에 대한 사용 정의
class voip
bandwidth 128 // 회선에 128kbps 할당해 적용



통신비를 대폭 절감하는 VoIP
VoIP의 가장 큰 장점은 통신비를 절감하는 것이다. 그럼 실제 구축시 어느 정도가 절감되는지 알아보자. <그림 7>과 같이 해외지점 4개소에 VoIP 장비 4채널을 설치하고, 본사에는 16채널을 설치했다. 1개월간 본사와 지점간의 VoIP 통화비를 분석했더니 월 1.1억원 정도를 사용하는 것으로 나왔다. 즉, 국제전화로 1.1억원을 지불하는 것을 무료로 사용한다는 것이니 돈을 버는 VoIP인 셈이다. 단, VoIP 장비 투자비와 해외지점별로 인터넷 회선 증설비는 제외됐다.

1) 측정기간 : 6월 1일 ~ 6월 30일(1개월 기준)
2) 통화비 기준 단가 : 각 나라별로 통신업체의 국제전화비 기준
3) 통화기준 : 통화시간 10초 이상의 유효한 통화만 선별
4) 월 절감비용 : 1.1억원(사우디 0.2억원, 베트남 0.7억원 태국 2개소 0.2억원)

원가절감 효과
지금까지 IP텔레포니의 기본원리와 구축 활용에 대해서 알아봤다. 앞으로 IP텔레포니는 점차 큰 시장을 형성하며 기술도 계속 발전해 나갈 전망이다. 유통이나 국제통화가 많은 회사에서 적용을 한다면 큰 원가절감 효과를 이룰 수 있을 것으로 다음 호에는 VoIP 구축시 QoS 등에 대해서 알아보기로 하자.

출    처 : 

NETWORK TIMES

'개발 이야기 > VoIP' 카테고리의 다른 글

VoIP의 필요성  (0) 2008.09.18
VoIP의 활용사례  (0) 2008.09.18
SOA와 VoIP 서비스  (0) 2008.09.18
VoIP, 통화 음질이 전부는 아니다  (0) 2008.09.18
인터넷전화(VoIP) 부활하는가?  (0) 2008.09.18
 
블로그 이미지

시반

시반(詩伴)이란 함께 시를 짓는 벗이란 뜻을 가지고 있습니다. 함께 나눌수 있는 그런 공간이길 바라며...

카테고리

분류 전체보기 (233)
개발 이야기 (73)
Java (22)
VoIP (19)
이클립스 (22)
ORM (6)
MINA (4)
WEB2.0 (57)
DB2 (24)
MySQL (6)
오라클 (26)
기타 (44)
취미 (0)
잡담 (2)