참조:http://webnautes.tistory.com/194

zlib

localhost opt # wget http://www.gzip.org/zlib/zlib-1.2.3.tar.gz

localhost opt # tar xvzf zlib-1.2.3.tar.gz

localhost opt # cd zlib-1.2.3

localhost zlib-1.2.3 # CC=arm-linux-gcc AR="arm-linux-ar rc" RANLIB=arm-linux-ranlib ./configure --shared --prefix=$PWD/build

localhost zlib-1.2.3 # make && make install


openssl

다운로드 http://www.openssl.org/source/

localhost opt # wget http://www.openssl.org/source/openssl-0.9.8e.tar.gz

localhost opt # tar xvzf openssl-0.9.7a.tar.gz

localhost opt # cd openssl-0.9.7a

localhost openssl-0.9.7a #vi Configure
Configure파일 수정
 "linux-elf" "gcc, ...................." <- 이부분을 찾아 다음처럼 수정한다.
=> "linux-elf-arm" "arm-linux-gcc,............." 변경후 아래를 실행한다.

localhost openssl-0.9.7a #./Configure linux-elf-arm --prefix=/usr/local/openssl-arm --openssldir=/usr/local/openssl-arm -L/opt/zlib-1.2.3/build/lib shared no-threads no-asm

Make File 수정
-CC= gcc
+CC= arm-linux-gcc
-EX_LIBS=
+EX_LIBS= -ldl
-AR=ar $(ARFLAGS) r
-RANLIB= /usr/bin/ranlib
+AR=arm-linux-ar $(ARFLAGS) r
+RANLIB= arm-linux-ranlib

make
make install



openssh

localhost opt # wget ftp://ftp.iij.ad.jp/pub/OpenBSD/OpenSSH/portable/openssh-4.6p1.tar.gz

localhost opt # tar xvzf openssh-4.6p1.tar.gz

localhost opt # cd openssh-4.6p1

localhost openssh-4.6p1 # CC=arm-linux-gcc AR=arm-linux-ar ./configure --prefix=/nfsroot/openssh --sysconfdir=/nfsroot/openssh/etc/ssh --target=arm-linux --host=arm-linux --with-ldflags="-static-libgcc" --with-zlib=/opt/zlib-1.2.3/build --disable-etc-default-login --disable-lastlog  --with-ssl-dir=/usr/local/openssl-arm --with-libs="-L/usr/local/openssl-arm/lib" --disable-strip  --without-pam --with-pid-dir=/nfsroot/openssh --with-privsep-path=/nfsroot/openssh/empty

make
make install


make install 실행 도중에 아래와 같은 에러가 난다. arm용으로 컴파일 된 실행파일을  PC에서 실행시키려 했기 때문이다.

/bin/sh: line 4: ./ssh-keygen: cannot execute binary file
/bin/sh: line 9: ./ssh-keygen: cannot execute binary file
/bin/sh: line 14: ./ssh-keygen: cannot execute binary file
make: *** [host-key] 오류 126


make파일을 arm용으로 컴파일 하여 계속 진행하였다.

타겟보드에서 make host-key라고 명령을 내린다.
./ssh-keygen: error while loading shared libraries: libz.so.1: cannot open shared object file: No such file or directory
./ssh-keygen: error while loading shared libraries: libz.so.1: cannot open shared object file: No such file or directory
./ssh-keygen: error while loading shared libraries: libz.so.1: cannot open shared object file: No such file or directory
make: *** [host-key] Error 127

기존에 컴파일 해두었던 libz.so.1을 타겟보드의 /lib/로 복사한후 계속 진행한다.
localhost lib # pwd
/opt/zlib-1.2.3/build/lib
localhost lib # cp -a * /nfsroot/
localhost lib # ls -l /nfsroot/

타겟보드에서
# cp -a /nfsroot/libz.so* /lib/


make host-key
에러가 나면 현재시간을 다시 맞추어주자..
make: warning:  Clock skew detected.  Your build may be incomplete.

# date
Thu Jan  1 01:08:41 UTC 1970
# date 062911382007   
Fri Jun 29 11:38:00 UTC 2007


ssh_conf파일을 수정해야 한다. 옵션설정은 더봐야함
[root@acumen:ssh]# pwd
/nfsroot/openssh/etc/ssh
[root@acumen:ssh]# vim ssh_config

38줄 SSH1 또는 SSH2 사용여부..#을 제거한다.
#   Protocol 2,1 -> Protocol 2,1


타겟 보드에서 sshd를 실행시킨다.
/nfsroot/openssh/sbin/sshd


PC에서 접속을 해본다.
ssh 192.168.1.166

참조 : http://www.whiteat.com/zbxe/4848



기본 지식

 

1. 병렬포트의 구조

프린트포트01.JPG
                    
그림 1 프린터 포트의 외형도



1, 14, 16, 17번은 input도 되고 output도 된다는 것을 알 수 있다.





그래서 여기서는 1, 14, 16, 17번은 사용을 안 하기로 한다.


OUTPUT

2, 3, 4, 5, 6, 7, 8, 9

INPUT

10, 11, 12, 13, 15

IN/OUT

1, 14, 16, 17

GND

18, 19. 20, 21, 22, 23, 24, 25

                           1 프린터 포트의 핀 종류



2. 병렬포트의 출력

병렬 테스트를 하기 위해 간단히 회로를 꾸며 보자.  아래의 회로도처럼 꾸민다.

프린트포트02.JPG

그림 2 프린터 포트 입력 테스트를 위한 회로도

회로도가 완성되면, PC 쪽에서 프린터 포트를 제어 해야 한다.

VC++를 사용해서 제어 하겠다. (C 보다는 VC++ 이 편하다.)

Dialog Based 로 한 다음, 버튼을 하나 만들고, 그 버튼 메시지 아래와 같은 코드를 입력

for(int i=0;i<256;i++)  {

_outp(0x378,i);

for(int j=0;j<10000;j++);

} 

그리고 버튼을 누르면  병렬포트에 연결시켰던 LED들이 우르르~ 켜지는 것을 볼 수 있다.

(하지만, win2000 이상에서는 잘 안될 것이다.)

그래서 다른 방법을 써야 한다.  라이브러리를 사용해야 한다.

라이브러리를 사용하면  2000 이하의 버전에서도 사용이 가능하므로, 라이브러리를 사용해서 하는게 좋을 것이다. (나중에 자세히 설명한다.)

 

파일은 자료실에 있다.

     _outp(0x378,i); 함수에서,

0x378 LPT1일때 즉 프린터포트의 주소이고,  그 뒤의 값은 데이터 값이다.

, 2번부터 9번까지(Data0 부터 Data7까지)데이터를 출력해 준다.

예를들어,  _outp(0x378,9)라고 했다면,
9 2진수로 1001이므로 2번핀과 5번핀이 HIGH 로 된다.



cf. 라이브러리를 이용한 제어

http://www.driverlinx.com/ 에 자세한 설명이 있고,

라이브러리를 제작, 배포하는 곳이다. 다운 받으려면 가입을 해야 하지만

http://www.driverlinx.com/DownLoad/DlPortIO.htm 여기에서 그냥 받을 수 있다.

또는 자료실 (http://rtcontrol00.ee.hallym.ac.kr ) 에 있다.

 

port95nt.exe Port I/O Driver (1,573k)

를 다운 받아 설치한다. 다 끝나면 (꼭 리붓을 해야 한다.)

프린트포트03.JPG

그림 3 생성된 단축 아이콘



그림의 C++ PortIO 를 실행하면

프린트포트04.JPG    프린트포트05.JPG                  

그림 4 실행초기 화면                   

그림 5 프린터 포트를 쓰는 화면

프린터 포트를 쓰는 그림에서 Write 를 누르면 프린터 포트에 데이터를 쓰는 것이다.

0x378 은 프린터 포트를 쓰는 주소이고, 0은 데이터 이다.

즉 프린터 포트에 0을 쓰는 것이다.

값을 읽을 때에는 Read 를 누르면 된다.

일단 여기서 에러 없이 잘 되면, 프린터 포트 제어에 문제가 없는 것이다.

이제 자신의 코드를 만들어 보자. VC6.0++ 을 이용하겠다.


VC++로 라이브러리 추가하여 프로그램 짜기

다이러로그 방식으로 프로그램을 짜서 버튼을 만들고 메시지를 연결한다.

라이브러리를 연결해야 하는데,

우선, 라이브러리를 사용할 폴더로 복사한다. [ Dlportio.h 파일과 Dlportio.lib 파일 ]

프린트포트06.JPG

설치된 폴더에서 API 폴더에 있다.

 

그리고, 라이브러리를 연결하고, 헤더파일을 추가한다.

(VC++ 에 대한 설명은 생략한다.)

 

그리고 코드를 연결한다.

 

void CPTESTDlg::OnButton1() {

             for(int i=0;i<256;i++)  {

                           DlPortWritePortUchar(0x378,i);

                           Sleep(1);

             }           

}DlPortWritePortUchar() 함수는 포트에 값을 쓰는 함수이다.

함수를 알아보려면 Dlportio.h 를 열어 보기 바란다.(절대 수정하지는 말고 ^^;; )

 

그리고 버튼을 누르면 LED 가 빠르게 깜빡거릴 것이다.


dlportio.h 파일을 보면 다음과 같은 함수가 있다.

<Read 함수>
DlPortReadPortUchar(IN ULONG Port);
DlPortReadPortUshort(IN ULONG Port);
DlPortReadPortUlong(IN ULONG Port);
DlPortReadPortBufferUchar(IN ULONG Port,IN PUCHAR Buffer,IN ULONG Count);
DlPortReadPortBufferUshort(IN ULONG Port,IN PUSHORT Buffer,IN ULONG Count);
DlPortReadPortBufferUlong(IN ULONG Port,IN PULONG Buffer,IN ULONG Count);

<Write 함수>
DlPortWritePortUchar(IN ULONG Port,IN UCHAR Value);
DlPortWritePortUshort(IN ULONG Port,IN USHORT Value);
DlPortWritePortUlong(IN ULONG Port,IN ULONG Value);
DlPortWritePortBufferUchar(IN ULONG Port,IN PUCHAR Buffer,IN ULONG Count);
DlPortWritePortBufferUshort(IN ULONG Port,IN PUSHORT Buffer,IN ULONG Count);
DlPortWritePortBufferUlong(IN ULONG Port,IN PULONG Buffer,IN ULONG Count);

 

뒤에 붙은 char(1byte), short(2byte), long(4byte) 은 데이타 타입이다.

자주 사용하는 함수는  DlPortReadPortUchar(), DlPortWritePortUchar() 이고, 바이트 단위로 통신하는 것이다
.
 

이제부터 라이브러리를 사용한다고 가정하고 설명하겠다.



3. 병렬포트의 입력

parallel port를 통해 입력을 받아보기 위해 회로를 꾸미자.

 

프린트포트07.JPG

그림 6 입력과 출력 회로도

주의 사항

최상위 비트는 11번이다.

11,10,12,13,15번 순이다. 주의 요

 

입력 버튼을 만들고, 코드를 넣자.

void CPTESTDlg::OnButton2() {

             int a=DlPortReadPortUchar(0x379);

             m_strData.Format("%x",a);

             UpdateData(FALSE);

}

 

테스트를 해 보면 11(최상위) 핀은 반전되어서 나오는 것을 알수 있다.

( 뒤쪽의 3비트는 I/O 공동으로 사용한 데이터 같은데 뭔지 모르겠음)

입력 값

PC 에서 읽은 값

1111 1XXX

0111 1XXX

0000 0XXX

1000 0XXX

1010 1XXX

0010 1XXX

0110 0XXX

1110 0XXX



실시간으로 프린트 포트로부터 입력 받기

약간의 C++ 지식이 필요하다.

일단 소스를 보면

void CPTESTDlg::OnButton2() {

        // 실시간으로 프린터 포트의 입력 값을 읽어서 화면에 보여줌

             while(1){

                           MSG msg;

                           while(::PeekMessage(&msg, NULL, NULL, NULL, PM_REMOVE)){

                                        switch(msg.message){

                                        case WM_QUIT:

                                        case WM_DESTROY:

                                        case WM_CLOSE:

                                                     PostQuitMessage(0);

                                                     return ;

                                        }

                                        ::TranslateMessage(&msg);

                                        ::DispatchMessage(&msg);

                           }

                          

                           int a=DlPortReadPortUchar(0x379);

                           m_strData.Format("%x",a);

                           UpdateData(FALSE);

             }

}

그리고 종료 할 때,

PostQuitMessage(0);

를 꼭 해주어야 한다. 그렇지 않으면 리소스를 반납하지 않기 때문에, PC 가 느려진다.

 

꼭 리소스가 제대로 반납되는지 확인 하기 바란다.




<참고> ECP , EPP 모드에 관해

하이텔 :신동익  (kbread  )님께서 쓰신 글입니다.

안녕하세요.
프린터포트로 뭔가를 하려는 분이 많이 계신가본데,제가 얼마 전에 인터넷에서
자료를 좀 구했습니다.

보통 centronics라고 불리우는 일반적인 프린터 포트 방식으로는 4bit의 데이타를 그것도 출력으로만 사용할 수 있지요.

최근에는 외장 하드디스크나 zip drive 등 대용량, 고속으로 동작하는 외부기기를 프린터포트에 접속하여 사용하는 경우가 늘고 있습니다. 따라서 병렬포트(프린터 포트보다 치기가 쉬워서)도 기존의 규격으로는 부족한 감이 있지요.

그래서 기존의 모드를 그대로 지원하면서, 고속의 확장모드를 지원할 수 있도록  새로운 규격의 병렬포트가 등장한 겁니다. 이른바 EPP, ECP라는 것 말입니다.

EPP Enhanced Parallel Port의 약자로서 프린터를 제외한 고속, 대용량(외장 하드, 캐너 등)의 외부기기를 지원하는 모드입니다. 8bit의 데이타 버스를 양방향으로 이용할 수 있습니다.

ECP Extended Compatibility Port의 약자로서 프린터로의 데이타 전송을 고속화 하려는 목적으로 고안된 것입니다. 마찬가지로 8bit의 양방향 통신을 할 수 있습니다. 최근의 레이저 프린터들은 대개 이 모드를 지원합니다.

또한 이러한 모드를 이용하기 위해서는 PC에 이 모드를 지원하는 병렬포트가 장착되어 있어야 하는데, PC의 부팅 시 cmos setup에 들어가서 지원여부를 확인할 수 있습니다. setup menu에서 communication port쪽을 살펴보면, com1은 어쩌구, com2는 저쩌구, lpt1은 어쩌구 에서 LPT부분의 메뉴를 변경해 보면 normal, ECP, EPP, ECP+EPP등이 나타나면 이게 지원되는 보드입니다.

ECP 모드에서의 전송 속도는 500Kbyte/sec에서 최대 2MByte/sec까지 가능합니다.
이 정도의 속도라면 보통 ISA bus에 인터페이스 한 것과 거의 대등한 속도라고 봅니다. 그리고 프로토콜도 매우 간단해서 프린터포트 인터페이스를 해 보신 분이라 면 누구나 쉽게 할 수 있습니다.

보다 자세한 규격은 인터넷주소 http://www.fapo.com/ieee1284.htm에 있습니다.
참고로 ECP, EPP를 지원하는 병렬포트 규격을 IEEE1284라 합니다.

MDI(Medium Dependent Interface)와 MDIX(MDI Crossover)
 크로스 연결을 해야할때 크로스케이블이 없고, 스트레이트(or 다이렉트)케이블만 있을경우
 MDI/MDI-X 표시가 있는 제품의 스위치나, 허브는 자동으로 케이블을 확인하고, 연결을 해준다.
 특히 요즘 나오는 제품들은 거의 이렇다고 보면 되기때문에 케이블 때문에 문제가 생기는 경우는 없다
 고 보면 된다.
 
 - 좋은 세상이다...^^

퍼온 사이트(http://kin.naver.com/open100/db_detail.php?d1id=1&dir_id=106&eid=kIZ5a6tTl/UvwmoBIGIC37tlw7HFaHrL&qb=aWNtcCBwb3J0)

▶ TCP/IP 프로토콜에서 사용하는 Port

1) 가장 많이 사용되는 포트 : 0 ~ 1023

2) 예약된 포트 : 1024 ~ 49151

3) 동적, 사설 포트 : 49152 ~ 65535


▶ 가장 많이 사용되는 포트 요약  (0~1023)

키워드

포트번호

포트용도

icmp

8/tcp, 8/udp,

0/tcp, 0/udp

Unassigned

ftp-data

20/tcp, 20/udp

File Transfer [Default Data]

ftp

21/tcp, 21/udp

File Transfer [Control]

ssh

22/tcp, 22/udp

SSH Remote Login Protocol

telnet

23/tcp, 23/udp

Telnet

smtp

25/tcp, 25/udp

Simple Mail Transfer

domain

53/tcp, 53/udp

Domain Name Server

whois++

63/tcp, 63/udp

whois++

tftp

69/tcp, 69/udp

Trivial File Transfer

gopher

70/tcp, 70/udp

Gopher

finger

79/tcp, 79/udp

Finger

www

80/tcp, 80/udp

World Wide Web HTTP

pop3

110/tcp, 110/udp

Post Office Protocol - Version 3

ntp

123/tcp, 123/udp

Network Time Protocol

epmap

135/tcp, 135/udp

DCE endpoint resolution

profile

136/tcp, 136/udp

PROFILE Naming System

netbios-ns

137/tcp, 137/udp

NETBIOS Name Service

netbios-dgm

138/tcp, 138/udp

NETBIOS Datagram Service

netbios-ssn

139/tcp, 139/udp

NETBIOS Session Service

imap

143/tcp, 143/udp

Internet Message Access Protocol

snmp

161/tcp, 161/udp

SNMP

namp

167/tcp, 167/udp

NAMP

imap3

220/tcp, 220/udp

Interactive Mail Access Protocol v3

ldap

389/tcp, 389/udp

Lightweight Directory Access Protocol

https

443/tcp, 443/udp

http protocol over TLS/SSL

shell

514/tcp

cmd

syslog

514/udp

syslog

printer

515/tcp, 515/udp

spooler

ftps-data

989/tcp, 989/udp

ftp protocol, data, over TLS/SSL

ftps

990/tcp, 990/udp

ftp protocol, control, over TLS/SSL

telnets

992/tcp, 992/udp

telnet protocol over TLS/SSL

imaps

993/tcp, 993/udp

imap4 protocol over TLS/SSL

pop3s

995/tcp, 995/udp

pop3 protocol over TLS/SSL (was spop3)

 

▶ 예약된 포트 요약  (1024 ~ 49151)

키워드

포트번호

포트용도

ms-sql-s

1433/tcp, 1433/udp

Microsoft-SQL-Server

ms-sql-m

1434/tcp, 1434/udp

Microsoft-SQL-Monitor

sybase-sqlany

1498/tcp, 1498/udp

Sybase SQL Any

atm-zip-office

1520/tcp, 1520/udp

atm zip office

ncube-lm

1521/tcp, 1521/udp

nCube License Manager

ricardo-lm

1522/tcp, 1522/udp

Ricardo North America License Manager

cichild-lm

1523/tcp, 1523/udp

cichild

ingreslock

1524/tcp, 1524/udp

ingres

orasrv

1525/tcp, 1525/udp

oracle

sybasedbsynch

2439/tcp, 2439/udp

SybaseDBSynch

sybaseanywhere

2638/tcp, 2638/udp

Sybase Anywhere

ms-wbt-server

3389/tcp, 3389/udp

MS WBT Server

http-alt

8080/tcp, 8080/udp

HTTP Alternate (see port 80)


▶ 웜/바이러스 포트로 방화벽에서 차단해야할 포트 요약

포트번호

원래 포트 용도

키워드

69/udp

TFTP

Nachi 웜,

Blaster 웜

80/udp

web server

Nachi 웜

135/tcp, 135/udp

NETBios

Nachi 웜,

Blaster 웜

137/udp

NETBios

Nachi 웜,

Blaster 웜

138/udp

NETBios

Nachi 웜,

Blaster 웜

139/tcp

NETBios

Nachi 웜,

Blaster 웜

443/tcp, 443/udp

HTTPS

Slapper 웜

445/tcp

NETBios

Nachi 웜,

Blaster 웜

514/tcp

SHELL

RPC Backdoor

515/tcp, 515/udp

LPRng

Red 웜

593/tcp

http-rpc-epmap, HTTP RPC Ep Map

Nachi 웜,

Blaster 웜

1008/udp

-

LiOn 웜

1243/tcp

-

ShoolBus Backdoor

1433/tcp, 1433/udp

ms-sql-m, Microsoft-SQL-Monitor

W32.Slammer 웜

1434/tcp, 1434/udp

ms-sql-m, Microsoft-SQL-Monitor

W32.Slammer 웜

3385/tcp

qnxnetman

Net-Worm.Win32.Mytob.dc

4444/tcp

krb524

Blaster 웜,

Welchia 웜

6667/tcp, 6667/udp

ircu 6665-6669/tcp  IRCU

Welchia 웜

6668/tcp, 6668/udp

ircu 6665-6669/tcp  IRCU

Welchia 웜

6669/tcp, 6669/udp

ircu 6665-6669/tcp  IRCU

Welchia 웜

10008/tcp, 10008/udp

-

LiOn 웜

54321/tcp

-

ShoolBus Backdoor

17300/tcp

-

Kuang2 바이러스

30999/tcp

-

Kuang2 바이러스

27374/tcp, 27374/udp

-

SubSeven Backdoor

 

▶ 메신저 관련

Service

Name

Server

Port

Description

MSN

64.4.130.0/24

207.46.104.0/24

207.46.106.0/24

207.46.107.0/24

207.46.108.0/24

207.46.110.0/24

TCP 1863 ,80

1863접속 시도 후 차단 되면 80 접속 시도

TCP 6891-6900

파일 전송

UDP 6901

음성채팅

UDP1863,5190

Microsoft Network Messenger

Yahoo

216.136.233.152/32

216.136.233.153/32

216.136.175.144/32

216.136.224.143/32

66.163.173.203/32

216.136.233.133/32

216.136.233.148/32

66.163.173.201/32

216.136.224.213/32

TCP 5050,5101

5050 접속 시도 후 차단 되어 있으면Port 계속 변경

TCP 5000-5001

음성채팅

TCP 5100

화상채팅

Nate On

203.226.253.75/32

203.226.253.135/32

203.226.253.82/32

TCP 5004-5010

기본 포트 5004-5010 접속 시도후 차단되어 있으면 Port를 계속 변경

TCP80,83,7003

웹 컨텐츠 및 문자 보내기

Daum

211.233.29.78/32

TCP 8062

 

SayClub

211.233.47.20/32

 

 

AOL

 

TCP 5190

AOL Instant Messenger Also used by: ICQ

UDP 4000

ICQ_locator

Dreamwize

211.39.128.236/32

211.39.128.184/32

TCP 10000

 

버디버디

 

TCP 810

 

TCP 940

 

TCP 950

 

케이친구

 

TCP 7979

 

천리안

 

TCP 1420

 

TCP4949, 8989

파일 송수신

ICQ

 

TCP 5190

 

UIN

 

TCP 8080

 

Genile

 

TCP 10000

 

 

▶ P2P 관련

service name

TCP

UDP

소리바다

22322, 22323, 7675

22321, 7674

당나귀

4661, 4662, 4665

8719, 4665, 4672

구루구루

9292, 9293, 8282, 31200

 

Direct

411-412

411-412

Gnutella

6346, 6347

 

GoBoogy

 

5325

Hotline

5497, 5498, 5500, 5501, 5503

 

KaZaA

1214

 

Madster

23172, 9922

 

Maniac

2000, 2222

2010

V-Share

8401-8404

8401-8404

shareshare

6399, 6777

 

WINMX

6699

6257

엔유

8185, 8184

 

파일구리

9493

9493

파일피아

8090-8091

 

iMash

5000

 

BitTorrent

6881, 6889

 

Guntella-Morpheus

6346-6347

6346-6347

GuRuGuRu

9292, 8282, 31200

 

Madster-Aimster

23172, 9922

 

MiRC

6667, 6665-6670, 7000

 

Bluster

 

41170

GoToMyPc

8200

 

Napster

6600-6699, 4444, 5555, 6666, 7777, 8888, 8875

 


▶ Game 관련

service name

TCP

UDP

스타크래프트

6112, 1156-1158

6112, 1156-1158

<퍼온 사이트 : http://www.cep.kr/blog/52?TSSESSION=4f98481c5f3797791b64d03f490b6566 >

Linux Diskless Cluster

5th Edition

기상연구소 예보연구실

*박광기

도종관

이용희

2002.5.28

1. H/W Setting

1.1 Master Node Bios Setting

1.2 Slave Node Bios Setting

1.3 Slave Node Onboard Lancard 부팅 셋팅

2. Clustering

2.1 Clustering에 필요한 package

2.2 Master node Setting

2.2.1 HDD partitioning

2.2.2 TFTP setting

2.2.3 DHCP setting

2.2.4 NIS setting

2.2.5 RSH setting

2.2.6 syslog

2.2.7 /etc setting

2.2.8 kernel setting

2.3 Slave node Setting

2.3.1 sdct

2.3.2 /tftpboot/Template

2.3.3 slave node kernel

2.3.4 adcn

2.3.5 test node debug

2.3.6 slave node 추가

3. 필요한 소프트웨어 설치

3.1 MPICH

3.2 PG COMPILER

3.3 OpenMP

3.4 PVM

3.5 NETCDF

3.6 NCARG

4. 추가적인 기술들

4.1 PXE

4.2 Channel Bonding

4.3 MON

4.4 MOSIX

4.5 M-VIA

4.6 MYRINET

4.7 BPROC

5. 참고 자료

6. Benchmark

6.1 H/W 성능에 따른 성능 비교

6.2 Network 속도에 따른 성능 비교

1. H/W Setting

1.1 Master Node Bios Setting

* Bios setting

[Advanced]

Keyboard Configuration

--> Keyboard Error : Ignore Error

[Boot]

Removable Devices

HDD <-- Master이므로 HDD로 부팅하는 것이 정상.

MBA UNDI (Bus0 Slot15)

MBA UNDI (Bus0 Slot16)

1.2 Slave Node Bios Setting

* Bios setting

[Advanced]

Keyboard Configuration

--> Keyboard Error : Ignore Error

[Power]

ACPI Enabled : No

Power Savings : Disabled

[Boot]

MBA UNDI (Bus0 Slot15) <-- OnBoard Network Boot사용하기 위해.

1.3 Slave Node Onboard Lancard 부팅 셋팅

* Bios 셋팅이 끝나면 ( Boot가 MBA UNDI인 경우 ) 시스템이 재가동된다. 이때 화면상에 "Control + Alt + B" 가 나오면 그대로 따라 누른다. 이렇게 하면 onboard lancard 붙팅에 관련된 옵션을 셋팅 할 수 있는 창이 뜬다. 이때 다음을 수정한다.

Boot Method : TCP/IP

Protocol : DHCP (우리가 주로 DHCP를 사용할 것이므로 )

Config message : Enabled

Message Timeout : 3 seconds

Boot Failure Prompt : Wait for time out

Boot Failure : Reboot ( 실패하게되면 시스템을 자동으로 재가동하게 하기위해)

F10을 눌러서 저장하고 나온다.

2. Clustering

2.1 Clustering에 필요한 package

DHCP

dhcp-common

dhcp-server

dhcp-client

TFTP

tftp

tftp-server

tftpboot-script

adcn

sdct

Etherboot

mknbi ( etherboot )

imggen ( Onboard Lancard rom boot )

RSH

rsh-server

rsh

NIS

ypbind

yp-tools

ypserv

mawk (이 패키지가 없으면 make를 하여도 ypcat하면 자료가 나오지 않는다. make할 때 조금 문제가 발생한다. mawk대체 품은 awk이다.

(Makefile에서 수정해 주면 됨))

CHANNEL BONDING

2.4.x부터는 kernel에 포함되어 있으므로 kernel컴파일시 channel bonding을 모듈로 켜놓으면 됨.

2.2 Master node Setting

2.2.1 HDD partitioning

Diskless로 클러스터를 구성하면 hard link를 해야 경우가 있다. 그런데 hard-link는 동일한 파티션내에서는 문제가 되지 않지만 다른 파티션 사이에서는 하드링크를 걸 수가 없기 때문에 node수만큼 필요한 공간을 사용하기 위해 root(/)를 크게 하고 그곳에 node용 NFS-root 영역을 잡는 것이다. 따라서 추가되는 노드수에 대비하여 충분히 크게 잡아주는 것이 좋다.

/ : node수에 맞게 적당히 ( node당 ( 150MB ~ ) 200MB정도 계산함 )

/usr : 15G정도 ( 많은 소프트웨어 깔므로... )

/home : User Data용

2.2.2 TFTP setting

/etc/xinetd.d/tftp 파일을 vi로 열어서 'disable = yes'로 된 부분을 'disable = no' 로 바꿔주면된다. 만약에 수동으로 하고 싶지 않다면 redhat 계열 linux같은 경우에는 setup 명령을, mandrake linux같은 경우에는 ntsysv 명령을 통하여 service중 tftp를 체크해 주면 된다. 이 tftp 셋팅은 rpm 패키지를 설치한 후에 서비스를 가동시켜주기만 하면 된다. 이유는 dhcp 또는 bootp서버를 이용할 때 TFTP는 kernel전송용 FTP 역할만 하기 때문에 별도로 고려해야 할 것이 없다. TFTP를 가동할 때는 /etc/rc.d/init.d/xinetd restart를 해주면 된다. (오래된 배포판은 /etc/rc.d/init.d/inet restart )

( 사용자인증과정 없이 서버에 지정된 위치의 파일을 요구하면, 파일을 전송해 주

는 방식. 보안은 취약하지만 아주 기본적인 파일 전송만 하면 될 때 많이 쓰임.

주로 네트워크 장비들의 펌웨어 등을 업그레이드할 때 많이 사용되어짐.)

TFTP 서버는 기본적으로 /tftpboot 디렉토리를 기본 디렉토리로 사용한다. 만약에 이 디렉토리를 사용하고 싶지 않다면 kernel source에서 /tftpboot로 된 것을 찾아 수정한 후에 kernel을 컴파일 할 경우에는 자신이 바꾼 디렉토리가 tftp서버의 기본 디렉토리가 된다.

sdct나 adcn을 돌리기전에 master node설정을 끝내고 sdct를 돌린다. 그리고 나서 /tftpboot/Template 설정이 끝나면 adcn을 돌리면 된다.

sdct를 돌리기 전에 /tftpboot가 있다면 문제가 되므로 /tftpboot 디렉토리를 지운 후에 sdct를 돌리면 된다.

2.2.3 DHCP setting

Diskless를 사용하는 것은 관리상 편리함이 가장 우선이고 또한 Hard disk의 가격부담을 줄이는 장점도 있다. 이 문서에서는 계산 전용 Cluster를 위주로 하여 설명하기 때문에 CPU자원을 최우선으로 고려하며 또한 문제 발생시 쉽게 CPU용 컴퓨터만 간편하게 재부팅해도 하여도 kernel이나 file system이 손상되는 등의 문제가 발생하지 않으므로 중요한 fileserver만 관리하면 되기 때문에 관리 및 유지상 장점이 있다. 이 문서에서는 diskless Clsuter를 만들기 위해서 사용하는 방법이 DHCP 또는 BOOTP 기능을 활용 수 있도록 다루었다. 그러나 BOOTP는 고전적인 방법이고 DHCP를 사용하는 것이 편리하여 BOOTP에 대해서는 환경 설정 파일만 간략히 설명하고 여기서는 DHCP를 중심으로 설명을 하였다.

[DHCP]

/etc에 있는 dhcpd.conf파일을 수정하고 나서 /etc/rc3.d/S*dhcp를 설정하여 부팅시에 자동으로 DHCP daemon이 가동되도록 설정하면 된다. 물론 이것 역시 /etc/dhcpd.conf 파일을 수정한 후에 간단하게 redhat 계열 linux에서는 setup명령으로 설정하고, mandrake linux에서는 ntsysv명령으로 dhcp service를 설정할 수가 있다.

실제 Node간에는 사설 IP로 설정하여 연산에만 사용할 수 있도록 하고 master node에만 접속 가능한 IP를 설정하는 예제이다. (사설 IP: 10.1.10.x/접속용 IP: 210.200.100.x라고 하자)

------------------------/etc/dhcpd.conf---------------------------------------

not authoritative;

#ddns-update-style none;

#log (info, concat ( "VCI: " , option vendor-class-identifier ) );

shared-network expo {

subnet 10.1.10.0 netmask 255.255.255.0 {

}

subnet 210.200.100.111 netmask 255.255.255.255 {

}

}

group {

default-lease-time 21600;

max-lease-time 21600;

use-host-decl-names on;

option domain-name "kma.go.kr";

option subnet-mask 255.255.255.0;

option broadcast-address 10.1.10.255;

option routers 10.1.10.10;

option domain-name-servers xxx.xx.xx.x;

option nis-domain "expo";

option nis-servers 10.1.10.10;

option log-servers 10.1.10.10;

option tftp-server-name "expo";

server-name "expo";

host expo1 {

hardware ethernet 00:E0:81:03:6E:27;

fixed-address 10.1.10.11;

option root-path "/tftpboot/10.1.10.11";

next-server 10.1.10.10;

filename "/10.1.10.11/boot/bzImage.mba";

}

host expo2 {

hardware ethernet 00:E0:81:03:6D:09;

fixed-address 10.1.10.12;

option root-path "/tftpboot/10.1.10.12";

next-server 10.1.10.10;

filename "/10.1.10.12/boot/bzImage.mba";

}

..........................................

host expo8 {

hardware ethernet 00:E0:81:03:6C:65;

fixed-address 10.1.10.18;

option root-path "/tftpboot/10.1.10.18";

next-server 10.1.10.10;

filename "/10.1.10.18/boot/bzImage.mba";

}

}

---------------------------------------------------------------------

option domain-name은 이 master node가 속해있는 domain name을 적어주면 된다. option subnet-mask에는 Cluster간 통신할 네트워크 Class를 C Class로 설정하였다. option broadcast-address는 Cluster간 통신할 네트워크 broadcast영역을 설정해준다. option routers는 Cluster의 master node의 Cluster IP를 써주면 된다. Cluster의 모든 통신은 Master node로부터 이루어지기 때문이다. option domain-name-servers는 이 cluster의 hostname을 등록해 dns서비스를 하는 서버의 IP를 적어주면 된다. option nis-domain은 master node에서 NIS를 통해 각 연산노드들의 계정을 일괄 관리하기 위해 NIS 기능을 사용하는데 이때 NIS서버가 역시 Master Node가 되므로 master node hostname을 써주면 된다. 물론 별도로 관리한다면 용도에 맞게 적어주면 된다. option nis-servers는 NIS서버의 hostname대신 IP를 써주면 된다.

option log-servers는 모든 node의 log내용을 master node에 쌓아두기 위해 설정하는 것이다. 그 이유는 각 node는 disk가 없기 때문이고 또한 관리를 편리하게 하기 위해서이기도 하다.

option tftp-server-name은 tftp로 각 노드의 kernel을 제공할 서버를 써주면 된다. 물론, master node가 각 node의 모든 kernel을 가지고 있고 또한 제공하기 때문에 master node의 hostname을 썼다. server-name는 master node의 hostname을 써주면 된다.

그리고 group안에 있는 host는 각 node의 hostname을 써주면 된다. 즉, 이 DHCP서버가 각 node의 lancard의 macaddress를 참조하여 hostname과 IP를 자동으로 그 host에 제공하게 된다. hardware ethernet은 slave node의 lancard macaddress를 적어주면 된다. 이 값은 etherboot용 floppy를 만들어 부팅 시켜 보거나 lancard driver flopy에 있는 utility를 활용하거나 windows에서 네트웍이 연결된 상태에서 command창을 띄워 netstat -nr 명령을 통하여 알아낼 수 있다. 기타 arpwatch등의 많은 방법을 통하여 알아낼 수 있다. fixed-address는 이 host가 받을 IP이다. 즉, expo1이라는 hostname을 받은 slave node는 10.1.10.11의 IP를 자동으로 부여받게 된다. option root-path은 tftpboot로부터 받아오는 root위치를 알려준다. next-server는 DHCP 서버를 제공하는 master node의 IP를 적어주면 된다. filename은 tftp로 갖고 갈 slave node의 kernel image의 위치를 적어주면 된다. 이런 방식으로 필요한 만큼의 node를 셋팅 하여 주면 된다.

이런 셋팅이 끝나면 /etc/rc.d/init.d/dhcpd restart명령을 통하여 dhcp 데몬을 재가동해주면 된다.

[BOOTP]

이는 /etc/bootptab또는 /etc/bootparams파일이 설정파일이다. 예를 아래에 들었다.

-------------------/etc/bootptab----------------------

global:sm=255.255.255.0:ds=172.16.24.1:gw=172.16.24.1:ht=ethernet:bf=bzImage.new:dn=cep.re.kr:sa=172.16.24.1:

test1:td=/tftpboot:hd=/172.16.24.2/boot:tc=global:ha=0050FC4F0EE3:ip=172.16.24.2:rp=/tftpboot/172.16.24.2:

test2:td=/tftpboot:hd=/172.16.24.3/boot:tc=global:ha=0050FC4F0AED:ip=172.16.24.3:rp=/tftpboot/172.16.24.3:

----------------------------------------------------

여기서 global아래에 적은 것은 모든 연산 노드들에서 공통적으로 사용될 내용임.

sm : sub netmask

ds : DNS서버 IP

gw : gateway IP

df : 부팅할 cluster client node kernel image file name

dn : cluster domain name

sa : tftp서버의 IP주소 ( 대게 cluster master node에 설정하므로 master node IP를 씀)

그리고 각 cluster client node들의 hostname을 시작으로 해서 각 node들의 환경을 셋팅 해 줌.

td : secure TFTP서버에서 사용되는 TFTP의 기본 디렉토리

hd : td와 같이 사용되어 커널 파일의 전체디렉토리 경로임. (TFTP는 td:hd디렉토리를 boot kernel 디렉토리로 인식하므로 /tftpboot/172.16.24.2/boot의 위치가 boot kernel이 있는 위치로 알게 됨.)

tc : global환경을 모두 포함하라는 의미임.

ha : cluster client node lancard hardware address (mac address)

ip : cluster client node IP

rp : cluster client node의 루트 파일시스템으로 마운트할 디렉토리 위치.

필요한 node들은 이렇게 test1, test2, test3, ...로 계속 적어주면 된다.

이렇게 설정이 끝났으면 bootp daemon을 가동시켜주면 된다.

2.2.4 NIS setting

NIS는 여러 host의 계정 관리할 때 매우 편리한 기능이다. 같은 계정을 여러 호스트에 발급하고 또한 관리하기 위해서 매번 여러 호스트에 접속하여 계정 관리를 하고 또한 패스워드도 각 호스트에서 모두 바꾸는 불편함 없이 한 호스트에서만 계정을 발급하고 또한 어떠한 호스트이던 간에 필요할 때 패스워드를 바꾸면 NIS로 묶여 있는 모든 host들의 계정 정보 및 password가 동시에 수정해 준다. 이 기능은 관리자에게 매우 매력적이고 편리한 기능이다. 물론 cluster에서도 각 node에서 연산역할만 하지만 프로그램이 수행되기 위해서는 각 node에 동일한 계정이 있어야 하며, 또한 동일한 계정 정보를 가지고 있어야 하므로 이곳에서 또한 NIS기능을 활용한다. 우선 /etc/yp.conf파일에 NIS정보를 추가해준다.

-----------------/etc/yp.conf-------------

domain expo server 10.1.10.10 <----------- 추가내용

----------------------------------------------------

domain expo server expo로 사용하여도 된다. 그러나 server뒤에 hostname을 쓰기 위해서는 DNS서버에 이 host에 대해 등록되어 있어야만 가능하다. 그렇기 때문에 DNS에 등록되진 않은 경우에는 직접 IP를 적어주어도 된다. IP를 적을 때에는 Cluster 내부에서만 인식할 것이므로 Cluster용 사설 IP를 사용하면 된다.

ypbind 데몬을 돌리기 위해서는 /etc/sysconfig/network 파일에 NIS서버를 설정해줘야만 NIS서버를 정상적으로 작동하게 된다.

---------------/etc/sysconfig/network--------------

NETWORKING=yes

FORWARD_IPV4=yes

HOSTNAME=expo

DOMAINNAME=kma.go.kr

NISDOMAIN=expo <---- NIS를 사용하기위해 추가

GATEWAY=190.1.40.1

GATEWAYDEV=eth3

--------------------------------------------

정보를 찾을 때 /etc/hosts파일에서 찾고 또한 DNS서버에서 찾게 설정되어 있다. 그러나 NIS를 사용하게 되면 네트워크 상에서 NIS서버에서 정보를 찾아야 하므로 다음처럼 /etc/host.conf 파일에 nis를 추가해준다.

-----------/etc/host.conf---------------

order hosts,bind,nis <---- nis 추가

multi on

------------------------------------

여기까지 되었다면 yp의 master를 현재 host에 설정하기 위해 다음 명령을 실행해준다.

/usr/lib/yp/ypinit -m

이것을 실행하게 되면 필요한 정보 등을 갖고 와서 yp용 DB파일을 /var/yp 디렉토리 하에 만들게 된다. 그리고 yp는 보안상 약간의 문제가 될 수 있으므로 다음처럼 yp기능을 제공한 네트웍 범위를 지정해줘야 한다.

--------------/var/yp/securenets----------------

255.0.0.0 127.0.0.0

255.255.255.0 10.1.10.0

255.255.255.255 xxx.xxx.xxx.xx

---------------------------------------------

yp관련 server가 잘 설정되었는지 확인하기 위해 /var/yp/ypservers 파일을 열어본다. yp server의 hostname으로 잘 되어 있다면 ypwhich 명령으로 ypserver를 한번 더 검색해본다. 물론 같이 잘 나온다면 yp설정이 정상적으로 된 것으로 생각하면 된다.

--------/var/yp/ypservers-----

expo

----------------------------

{NIS계정 추가하기}

NIS용 계정을 추가하기 위해서 /etc/passwd 아래에 +:*:0:0:::를 추가하고 그 아래에 계정을 일반적으로 수동으로 추가하듯이 추가하여 주면 된다.

이렇게 계정을 추가한 후에 (+:*:0:0::: 아래에다가) /var/yp 아래에서 make명령을 실행시켜주면 자동으로 계정이 yp db에 등록되게 된다. 한가지 TIP은 yp계정 한계선(+:*:0:0:::)위에 발급된 계정은 그 host에만 적용되며 (NIS로 적용 안됨.) 또한 그 host내에서는 NIS 계정보다 일반계정이 우선권이 있다. 그래서 NIS 계정과 일반계정이 같은 것이 있는 경우에는 그 host에서만은 일반계정이 우선적으로 설정한 내용이 적용된다. 물론 다른 NIS로 묶인 host에서는 NIS정보에 의해 적용된다.

yp그룹은 /etc/group 파일에 +:*:0:를 추가하고 아래에 마찬가지로 추가해주면 된다.

계정 발급 후에는 항상 /var/yp에서 make 명령을 한번씩 돌려주는 것을 잊어서는 안 된다. 이렇게 모든 것이 되었다 싶으면 yp 데몬을 한번 재 가동시켜준 후에 ypcat passwd 명령을 하였을 때 NIS용 계정 발급된 내용이 잘 보이면 NIS는 성공한 것으로 생각하면 된다. 그런데 한가지 yp 데몬들에 대해서는 잘 설정되었으나 ypcat으로 정보가 보이지 않는 경우에는 mawk 패키지가 깔려 있지 않은 경우이다. 그러니 mawk 패키지를 깔아주고 나서 /var/yp에서 make명령를 돌려주면 다시 db가 갱신되어 잘된다. mawk가 없는 경우에는 awk로 대체할 수가 있으므로 /var/yp/Makefile를 열어서 mawk로 된 것을 awk로 수정하여 실행하면 된다.

개인이 패스워드 바꿀 때는 yppasswd 명령을 이용하면 됨.

NIS Client에서 NIS 정보를 만들기 (yp관련 server 설정하기)

/usr/lib/yp/ypinit -s expo

여기서 expo는 NIS 서버 hostname이다.

2.2.5 RSH setting

rsh는 remote shell의 약자로 telnet처럼 login ID와 password를 이용하여 접속하여 사용하는 것이 아니라 ID와 패스워드 없이 다른 host로 쉬게 이동하거나 명령을 직접 실행가능 하게 해준다. 많은 컴퓨터를 관리할 때는 매우 편리하나 조금 보안상 문제가 발생할 수 있다. rsh를 일반사용자들이 사용하기 위해 설정해보자. /etc/hosts.equiv파일에 다음처럼 각 node의 모든 host이름을 적어주자. 만약에 한 host가 2개 이상의 네트워크를 사용하기 위해 2개 이상의 hostname을 갖고 있다면 모든 hostname으로의 network에서 rsh가 가능하게 하기 위해 모두 추가해줘야 한다.

------------/etc/hosts.equiv---------------

localhost

expo

expo1

...

expo8

exp <-- 이 아래는 channel bonding용으로도 rsh를 사용할 수 있도록 하기 위해

exp1

...

exp8

---------------------------

rsh의 보안 및 사용할 기능과 root사용자를 위해 다음처럼 /etc/securetty파일에 내용을 추가해준다.

-------------/etc/securetty----------------

rexec

rlogin

rsh

root@localhost

root@expo

root@expo1

....

root@expo8

-------------------------------------------

또한 root사용자가 rsh를 사용할 때 remote 명령이 안 되는 것을 풀기 위해 다음처럼 내용을 주석 처리해 준다.

------------/etc/pam.d/rsh-----------------

auth required /lib/security/pam_nologin.so

auth required /lib/security/pam_rhosts_auth.so hosts_equiv_rootok

----------------------------------------------

rexec기능을 root도 가능하게 하기 위해 다음처럼 파일에 내용을 추가해준다.

-------------------/etc/pam.d/rexec---------------

.....

auth sufficient /lib/security/pam_rhosts_auth.so hosts_equiv_rootok

...

-------------------------------------------------

rlogin를 root가 사용가능 하게 하기 위해 다음처럼 내용을 추가해준다.

-----------------/etc/pam.d/rlogin-----------------

...

auth sufficient /lib/security/pam_rhosts_auth.so hosts_equiv_rootok

...

---------------------------------------

마지막으로 /root디렉토리에 .rhosts파일을 만들어 준다.

--------------------/root/.rhosts---------------

localhost

expo

expo1

...

expo8

exp

exp1

...

exp8

---------------------------------

2.2.6 syslog

syslog는 각 node마다 각기 쌓이게 되면 관리하기가 불편하다 또한 각 node들이 disk가 없으므로 master node에 모든 log를 쌓는 것이 편리하다. 그렇게 하기 위해 다음처럼 설정하자.

-----------/etc/sysconfig/syslog--------------

SYSLOGD_OPTIONS="-r -m 0" <--- -r 옵션 추가

---------------------------------------------------

-r 옵션은 remote host에서 log정보를 보낼 경우, 받아서 자신의 log파일에 저장하겠다는 것이다. 이렇게 master node에 이것을 설정하고 slave node에 /etc/syslog.conf 에 내용을 master node로 보내게 하면 master node의 log파일에 모든 slave노드의 log까지 들어가므로 하나의 파일만 살펴보면 모든 node의 log를 볼 수 있게 된다.

slave node에서는 다음처럼 파일을 수정해주면 설정된 node로 모든 log내용이 전송된다. 그러므로 slave설정할 때 설정해주면 된다. 물론 adcn를 돌리게 되면 자동으로 master node로 log가 쌓이도록 자동 설정된다.

----------------- /tftpboot/Template/etc/syslog.conf------------------

*.* @expo

-----------------------------------------------------------------

2.2.7 /etc setting

각 node에 대한 cluster용 ip를 설정해준다. 대부분 정보가 hostname으로 사용되기 때문에 hosts파일에 다음처럼 설정해주면 된다.

-------------/etc/hosts--------------------

127.0.0.1 localhost.localdomain localhost

210.200.100.111 expo expo.kma.go.kr

# Cluster

10.1.10.10 expo

10.1.10.11 expo1

........ ...

10.1.10.18 expo8

# Bonding

10.1.100.10 exp exp0

10.1.100.11 exp1

..... ...

10.1.100.18 exp8

--------------------------------------------

/etc/ethers파일은 정확히(??) 뭐에 필요한건지는 모르겠지만 각 node의 lancard macaddress와 각 host의 hostname을 mapping시켜주는 파일이므로 아래 형식처럼 써주면 된다.

/etc/exports파일은 일부러 수정해줄 필요는 없다. 이유는 adcn을 돌리게되면 자동으로 /etc/exports파일이 수정되기 때문이다. 그러나 이 파일은 혹시라도 잘못 된 경우를 대비해서 참조하기 위해 적어둔다.

------------------/etc/exports----------------------

/tftpboot/10.1.10.11 expo1(rw,no_all_squash,no_root_squash,no_subtree_check)

/usr expo1(ro,no_all_squash,no_root_squash,no_subtree_check)

.... ...

--------------------------------------------------------

마지막으로 kernel 및 ip performance 등에 관련된 환경설정 파일이다.

-------------------------/etc/sysctl.conf---------------

net.ipv4.ip_forward = 1

net.core.rmem_default = 262144

net.core.rmem_max = 262144

net.core.wmem_default = 262144

net.core.wmem_max = 262144

#

sys.fs.file-max = 16384

-------------------------------------------------------

2.2.8 kernel setting

kernel을 컴파일 하기 전에 Makefile을 열어서 다음을 수정해준다.

----------/usr/src/linux/Makefile----------------

EXTRAVERSION =-2

--------------------------------------------

이 내용은 kernel compile후에 module를 컴파일 한 후에 module install시 module이 kernel-version-num뒤에 extraversion 이 들어가므로 module들이 서로 꼬이지 않아 좋다. 또한 kernel 적용 버전이 될 수도 있어 편리하다. 이 부분을 잘 활용하면 된다.

master용 kernel setting에 있어 나머지는 각 시스템에 맞게 각자 관리자의 목적에 맞게 설정하면 된다. 그러나 아래의 셋팅은 master node에 있어 꼭 필요한 정보이므로 아래 내용만큼은 꼭 넣어야 하며 나머지는 각 시스템에 맞게 설정해주면 된다.

------------------------------------------------------------------

Code maturity level options

--> Prompt for development and/or incomplete code/drivers --- y

File System

--> Kernel automounter support ---- y

--> Kernel automounter version 4 support (also support v3) ---- y

--> Network File System

--> NFS file system ---- y

--> Provide NFSv3 client support ---- y

--> NFS server support ---- y

--> Provide NFSv3 server support ---- y

--------------------------------------------------------------------

( USB Mouse가 필요한 경우에는 다음 부분을 살펴보면된다.

Input core support

--> mouse support --- y

USB support

--> USB Human Interface Devices (HID)

--> USB HIDBP Mouse (basic) support --- y )

설정이 끝났으면 Save configuration to An Alternate File을 이용하여 master node kernel setting값을 저장해둔다. 그래야 나중에 조금 설정 값을 바꿀 때 이 값을 불러들여서 수정하면 편리하기 때문이다. 이제 설정이 끝났으므로 컴파일을 해야 한다. 컴파일을 하기 위해서는 다음처럼 명령을 이용하면 된다.

make dep; make clean; make bzImage; make modules; make modules_install

위의 명령어를 이용하여 master node kernel을 compile하고 또한 module들을 컴파일하고 module들을 인스톨한다.

+ linux kernel setting 및 lilo 설정.

cp /usr/src/linux/arch/i386/boot/bzImage /boot

cp /usr/src/linux/System.map /boot/System.map-kernel.version.num-EXTRAVERSION

vi /etc/lilo.conf을 해서 아래처럼 master node kernel 부팅을 추가해준다.

-------------------------

image=/boot/bzImage

label=master

root=/dev/hda5 ( / partition )

read-only

-------------------------

lilo 명령을 이용하여 kernel setting한 것을 boot roader에 적용한다.

2.3 Slave node Setting

2.3.1 sdct

sdct는 /tftpboot/Template라는 디렉토리에 master node의 root partition에 있는 내용들을 hard link로 만들어주는 역할을 한다. /tftpboot/Template가 모든 컴퓨팅 노드의 구성을 변경하는 곳이 된다. 이곳의 파일이 바뀌면 앞으로 만들게 될 다른 cluster client node들의 파일도 전부 바뀌게 된다. /tftpboot/Template ( Master node root ), /tftpboot/IPs ( Cluster client node root )가되는 것이다. 그렇기 때문에 /tftpboot/Template 디렉토리 아래에 있는 파일을 자신의 클러스터에 맞게 변경하면 된다.

sdct -s 10.1.10.10

그러나 이것은 초기버전 에서는 조금 수정해야 할 부분이 많다. 그래서 필자가 수정한 파일을 이용하여 주면 조금은 더 편리하다.

sdct -N 10.1.10.10 -P /usr/local/src/cluster/bin [ -s 10.1.10.10 ]

여기서 -N은 NFS-ROOT서버의 IP주소를 써주면 되고 또한 -P 뒤에는 기타 환경 설정용 파일이 존재하는 위치를 적어줌. -s 뒤에는 master node의 IP를 써주면 됨. -s 부분은 굳이 적지 않아도 자동으로 찾아 적힌다. 필자가 수정한 sdct파일은 다음 파일도 필요 한다. sdct.ext.fstab 이 파일은 fstab을 만들어주는데 있어 부수적으로 더 필요한 설정이 들어가 있는 파일이다.

2.3.2 /tftpboot/Template

이 위치에서는 etc/rc0.d와 etc/rc3.d 그리고 etc/rc6.d 디렉토리의 실행순서 등을 만들고 불필요한 파일은 삭제를 해줘야한다. 만약에 XWindows를 사용한다면 etc/rc5.d를 사용하게 될 것이다. 이 부분은 slave하나를 셋팅해 놓고 켜보면서 뜨는 message를 보면서 파일순서 또는 필요 없는 데몬을 삭제하면 된다.

/etc/rc.d/init.d/netfs의 시작순서가 /etc/rc.d/init.d/network 다음에 오도록 수정한다.

/etc/rc.d/rc3.d/S10network와 /etc/rc.d/rc3.d/S11netfs로 만들어준다.

/etc/rc.d/rc2.d/K10netfs와 K20network는 가장 큰 숫자로 바꿔준다.

한가지 /etc/init.d/killall과 halt란 파일을 수정하지 않으면 재부팅 및 shutdown시 killall process이후에 멈추는 문제가 생긴다.

                  2.3.3 slave node kernel

물론 이것 역시 /usr/src/linux/Makefile을 vi로 열어서

----------/usr/src/linux/Makefile----------------

EXTRAVERSION =-2

--------------------------------------------

이 부분을 수정해준 후에 다음 작업을 해주는 것이 좋다.

master용 kernel configure를 불러들인다. 그리고 나서 다음 항목을 수정한다.

------------------------------------------------------

Networking Options

--> IP: kernel level autoconfiguration

--> IP: BOOTP support ---- y

File system

--> Network File System

--> Root file system on NFS ------ y

----------------------------------------------------

그러나 slave용 node에서는 NFS-ROOT용으로 사용할 Network card는 kernel속에 직접 넣어야 한다. 그래야만 kernel을 tftp로 갖고 가서 kernel을 load하면서 network이 구성될 수가 있기 때문이다. 이렇게 하지 않으면 network용 module을 올리기전에 NFS-ROOT가 올라오지 않아서 문제가 되기 때문이다. 그리고 나서 다음처럼 커널을 컴파일 해준다.

참고로 vmware를 사용할 경우 vmware용 렌카드는 lancepci.lzrom(또는 amdhomepna.lzrom)을 사용하면 된다.

Network device support

--> Ethernet (10 or 100Mbit)

--> AMD LANCE and PCnet (AT1500 and NE2100) support ---y

accton lancard는 tulip driver를 사용한다. tulip driver는

Network device support

--> Ethernet (10 or 100Mbit)

--> EISA, VLB, PCI and on board controllers

--> DECchip Tulip (dc2114x) PCI support ---y

make dep; make clean; make bzImage

명령을 이용하여 커널을 컴파일 한다.

이제 컴파일이 끝난 후에 bzImage와 System.map파일을 /tftpboot/Template/boot에 카피해 놓자. 그리고 나서 etherboot용 kernel로 만들기 위해서 만들어진 kernel을 조금 수정해야 한다. 먼저 etherboot용 프로그램을 컴파일 해놓고 다음처럼 프로그램으로 수정해주면 된다.

mknbi 프로그램을 이용하여 network boot가 가능하게 kernel image시작부분에 코드를 추가해준다. 그리고 바뀐 kernel image와 System.map파일이 /tftpboot/Template/boot에 존재해 있게 해주면 된다.

mknbi와 etherboot파일은 http://etherboot.sourceforge.net/ 또는 http://etherboot.sourceforge.net/distribution.html 이곳에서 다운받을 수 있다.

mknbi --format=elf --target=linux --output=bzImage.new --ip=dhcp bzImage

--format : nbi로 하면 커널 로딩을 못한다. elf로 하여야 한다.

--target : linux에서 사용할것이므로 linux로 한다.

--output : kernel image를 변경후 저장할 파일명이다.

--ip : dhcp데몬을 사용할 것이면 dhcp bootp를 사용할 것이면 bootp를 씀.

만약에 etherboot가 아닌 onboard용 lancard를 이용한 rom 부팅을 한다면 다음 프로그램을 이용하여야 하며 이용법은 다음과 같다.

/usr/local/sbin/imggen -a bzImage.nbi bzImage.mba

그러나 mknbi를 먼저 실행한 후에 mknbi를 수행한 kernel image파일을 같고 위처럼 바꾸기 때문에 mknbi역시 꼭 필요한 것이다.

diskless cluster node로 부팅하기 위한 부팅 디스크 만들기를 만들어 보자. 이것은 부팅 image와 간략한 lancard정보만 들어 있는 아주 작은 image파일이다.

ehterboot는 gcc 2.96에서는 컴파일이 되지 않는다. 2.95이하 또는 3.0이상에서만 컴파일이 된다. 한가지 문제점은 컴파일이 잘되고 부팅 이미지 만들어 부팅하면 부팅이 잘되어 찾기는 하지만 찾는 중으로 멈춰 있으면 다음 3가지를 점검하자.

a) cable 연결상태 확인.

b) dhcp 또는 bootp 설정상태.

c) nds상태

e) 컴파일은 되었지만 잘못 컴파일 된 경우 ( 이때는 kgcc 로 컴파일해보자 ).

etherboot는 src디렉토리의 Config 파일이 bootp로 할지 dhcp로 할지 결정하는 옵션 등이 있다. 적당히 수정한다.

make; make bin/boot1a.bin

명령으로 컴파일을 한다.

boot1a.bin은 부팅 image인데 이것은 위처럼 make 명령을 따로 줘야 한다.

cat bin/boot1a.bin bin32/xxx.lzrom > /dev/fd0

명령으로 부팅 이미지를 floppy디스크에 넣는다. 여기서 xxx.lzrom은 cluster client node 컴퓨터에 붙어 있는 렌카드에 맞는 image파일이다.

2.3.4 adcn을 이용한 slave node 추가

adcn을 사용하여 cluster client node의 루트 파티션 설정하기.

이 파일은 각 client node들의 root partition을 잡을 때 사용하는 스크립트로, 필요한 정보는 각 노드의 IP주소, 각종 네트워크 정보, 그리고 그 노드에 있는 Lan card의 하드웨어 주소 등으로 되어 있다.( 하드웨어 주소는 16진수 6자리 숫자로 된 것으로 세계에서 그 렌카드의 하드웨어 주소는 오직 하나임. ) 자세한 설명을 “adcn -h“ 로 살펴보면됨. adcn을 사용하기 전에 아래의 cluster client node 설정하는 부분을 보고 client node용 kernel image를 만들어두고 adcn을 사용하면 편리하다.

adcn -i 10.1.10.12 -c cpu1 -d cep.re.kr -D eth0 -n 255.255.255.0 -s 10.1.10.10 -N 10.1.10.0 -g 10.1.10.10 -b 10.1.10.255 -m 00:D0:80:10:DC:70 -f

-i : 해당 컴퓨터의 cluster client node IP주소임.

-c : 해당 컴퓨터의 cluster client node의 host name임.

-d : 현재 cluster의 domain name이됨.

-D : cluster client node에사 사용될 Lancard의 interface이름을 써주면됨. (lancard가 하나이면 기본적으로 eth0 임.)

-n : netmask를 써줌.

-s : cluster Master node IP를 써주면 됨.

-N : Network를 써주면됨. ( cluster client node 네트워크 주소가 172.16.24.0가됨 )

-g : Network의 기본 네트웍 gateway 주소임.

-b : broadcast용 IP주소.

-m : cluster client node의 Lancard hardware address( Mac address )

adcn을 사용하면 /etc/hosts와 /etc/exports(NFS서버에 필요함) 그리고 /etc/fstab파일도 자동으로 각 node들에 맞게 수정됨.

이 과정은 루트파일시스템을 NFS로 접근하게 만드는 과정이다. (/usr/src/linux/Documentation/nfsroot.txt 참조)

이 내용 역시 손본 것이 많기 때문에 필자가 수정한 것을 사용하면 조금 더 편리하게 수정할 수 있다.

필자가 수정한 adct에는 -M 옵션과 -P 옵션이 있다. 여기서 -M옵션은 NIS 서버의 hostname을 써주면 되고, -P는 기타 부수적인 환경설정 파일이 존재하는 위치를 써주면 된다. 그리고 한번에 여러개의 slave를 만들기 위해서는 여러번 실행하려면 매우 불편할 것이다. 그래서 다음처럼 해보자.

---- slave라는 실행 파일을 하나 만들고 내용을 추가하자.----------------

#!/bin/bash

for AA in $(cat node) ; do

./adcn -i 10.1.10.1$AA -c cpu$AA -M cpu0 -P /usr/local/src/cluster/bin -d cep.re

.kr -D eth0 -n 255.255.255.0 -s 10.1.10.10 -N 10.1.10.0 -g 10.1.10.10 -b 10.1.10

.255 -m 00:50:FC:4F:0E:E3 -f

done

----------------------------------------------------------------

그리고 node라는 파일을 하나 만들어 node의 번호들을 죽 적어 둔 후 slave라는 파일을 실행시키면 각 노드의 slave를 adcn를 실행시켜줄 것이다.

물론 필자가 수정한 adcn이란 파일은 adcn.ext.exports란 파일이 필요하며 이 파일은 추가적으로 exportfs시키는 정보가 들어가는 파일이다.

2.3.5 test node debug

우선 한 개의 slave node를 만들어서 계속 부팅 해가며 문제점을 모두 잡은 후에 모두 문제가 해결되면 나머지 node에 대해서 만들어 주면 cluster완성되는 것이다.

만약에 cluster 이후 rsh에서 명령어가 안될 때 다음을 채크해보자.

/dev/console 파일의 퍼미션이 644로 안되어 있는 경우가 있다. 이런 경우 rsh로 login은 되어도 명령어가 실행되지 (rsh cpu1 ls) 않는 경우가 있다. 이럴 때는 chmod 644 /dev/console 해주면 된다.

가끔 keyboard가 이상할 경우 tset 과 reset 명령을 내려본다. 그러면 이상하던 keyboard가 정상으로 돌아온다.

3. 필요한 소프트웨어 설치

3.1 MPICH

mpirun -v -machinefile machine.cluster.node -nolocal -np 8 mm5.mpp.mpich

여기서 -nolocal 이던가 -nolocalhost이던가??를 해주는 것은 현재 돌리는 node에서는 계산을 하지말고 machine.cluster.node파일에 나열한 node hostname들에서만 계산작업을 하게 하는 것이다.

3.2 PG COMPILER

3.3 OpenMP

3.4 PVM

3.5 NETCDF

3.6 NCARG

4. 추가적인 기술들

4.1 PXE

4.2 Channel Bonding

channel bonding은 linux kernel에서 지원하고 H/W적 slot이 지원되는 한도 내에서 개수를 늘릴 수 있다.

channel bonding은 가상 network device를 만들고 (bond0) 그 device에 실제 물리적 device를 붙여서 같은 mac-address와 같은 IP를 같게 만들어준다. bonding시키는 모들 실제 물리적 device를.... 그러나 mac-address는 실제 device중 가장 먼저 bond0에 붙는 것의 mac-address를 가져가서 가상 device인 bond0의 mac-address가 되어 진다. 하나의 IP로의 네트웍이 실제 물리적으로 분리된 network 경로를 통해 네트웍이 분산되어 나가므로 그많큼 네트웍 bandwidth가 넓어지는 것이다. 하나보단 2개일 때 대략적으로 2배의 bandwidth가 넓어졌다.

1. Kernel에서 channel bonding을 y로 해준다.

2. ------/etc/modules.conf------------

alias bond0 bonding

options bond0 miimon=100

---------------------------------

3. /etc/sysconfig/network-scripts/ifcfg-bond0을 만들어주고 내용은 eth0와 비슷하게 IP를 하나 추가한다. 만약에 NFS-ROOT를 사용중이라면 (eth0에서) eth0와 비슷하게 Network Classs가 다르게 잡아준다.

예) 10.1.10.x를 NFS-ROOT로 사용중이라면

bond0 의 IP는 10.1.100.x를 사용해라. 안 그러면 네트워크이 혼동되어서 네투워크이 꼬일 경우도 있다.

4. /etc/rc.d/rc.local 내용추가

------------------------------

/sbin/ifenslave bond0 eth1

/sbin/ifenslave bond0 eth2

------------------------------

4.3 MON

4.4 MOSIX

M-VIA는 네트웍 속도에는 크게 영향을 주지 못하고 단지 네트웍을 심하게 사용하기 위해 CPU가 사용하는 load를 줄여준다. Network을 cpu가 관리하는 것을 lancard가 직접 관리하도록 해주는 프로그램이다. 실제 테스트를 하여보면 Network을 사용하기 위한 CPU load를 50%가까지 줄여준다. 그러므로 CPU는 계산에 더 사용하고, Network 사용에는 더 줄일 수 있다. 한가지 이것을 사용하려면 기존의 lancard용 device는 모듈로 만들어 주거나 아예 없애야 한다. 왜냐면 m-via용 device가 대신해서 module로 떠야하기 때문이다. 이렇기 때문에 NFS-ROOT용으로 사용하는 lancard는 m-via를 사용할 수가 없다. 왜냐면 NFS-ROOT용 lancard device는 kernel에 직접 넣어두어야만 network boot를 통해 NFS-ROOT를 사용할 수가 있기 때문이다.

참조: http://spcc.uos.ac.kr/clustering/mvia.html

- 지원되는 Lancard

DEC Tulp (kernel 2.2 and 2.4에서 지원) : 장시간 가동시 하드웨어 문제 같아 보이는 현상으로 죽어버린다.

Intel pro 10/100 (kernel 2.2 and 2.4에서 지원)

3com (kernel 2.4에서 지원)

Packet Engines GNIC-I gigabit (kernel 2.2.에서 지원)

Packet Engines GNIC-II gigabit (kernel 2.2.에서 지원)

Syskonnet SK-98XXX gigabit (kernel 2.2 and 2.4에서 지원)

- SMP 지원됨.

- Install

Makefile.config 파일에서 Kernel version/ SMP사용여부/ 깔릴 DEVICE Directory 등 수정

-----------------Makefile.config------------------------

# The version of the Linux kernel for which M-VIA is being built.

LINUX_VERSION = 2.4.9-4 <===== 리눅스 커널버전(현재 사용중인 커널의 커널 버전을 써준다. 이유는 나중에 module이 깔리때 들어갈 /lib/module하의 디렉토리를 맞추기위해서이다.

# Set MVIA_SMP to 1 for SMP machines, 0 for uniprocessors.

MVIA_SMP = 1 <== SMP사용여부

# The location of the Linux kernel source.

LINUX_SRC = /usr/src/linux-2.4.9 <== 현재 사용중인 커널의 소스위치

# The directories to install M-VIA user files in.

INCDIR = $(BASEDIR)/include

LIBDIR = $(BASEDIR)/lib

DEVDIR = $(ROOTDIR)/dev <== M-VIA용 디바이스가 설치될 위치 (Master일때와 slave일때의 위치가 다르므로 잘 생각 : 현재 master용)

#DEVDIR = /tftpboot/Template/dev (slave용 위치)

----------------------------------------------------

make후 인스톨하면 다음이 설치된다.

/lib/modules/kernel-version-num/net 하에 설치됨.

공통으로 사용되는 모듈: via_ka.o via_lo.o via_ering.o

각 카드의 모듈들 : via_3c59x.o (3c59x용) via_eepro100.o (intel용) via_tulip.o (DEC용)

/usr/local/lib/libvipl.a

/usr/local/include/vipl.h 가 또 설치되어 진다.

이렇게 설치후 모듈을 module map파일에 등록하기위해

depmod -a kernel-version-num 명령으로 등록시켜준다.

/dev 디렉토리에 필요한 device(via_lo via_eth1 via_eth0 ...)를 만들기위해 다음명령어를 사용한다.

make devices

/etc/modules.conf파일을 수정해준다.

----------modules.conf---------------

alias char-major-60 via_lo

alias eth2 via_eepro100

-----------------------------------

/etc/sysconfig/network-script/ifcfg-eth2를 생성해도 되지만 잘 되지 않는 편이어서 /etc/rc.d/rc.local파일에 ifconfig명령으로 뜨게 해준다.

/etc/vip_hosts파일 생성

------vip_hosts---------

00:03:47:B2:5B:18 exp

00:03:47:B2:22:BF exp1

00:03:47:B2:5B:19 exp2

00:03:47:B2:55:03 exp3

-----------------------

앞에는 각 호스트의 m-via로 사용할 lancard mac-address고 뒤는 host의 hostname이다.

추후에 m-via를 이용하여 channel bonding을 해보면 어떨지??? 아마도 UTP gigabit을 두개정도 사용하면 myrinet정도의 효과가 나오지 않을까?? 생각한다. 가격 대 성능 비에서 좋지 않을까???

한가지 문제점은 M-VIA를 이용하여 네트웍 구성 후 MPI를 사용하기 위해서는 MVICH를 깔아야만 하는데 네트웍 구성을 되었지만 MPI를 사용하기 위한 MVICH가 문제가 있어 잘 깔리지 않는다. 이것만 해결되면 한번 사용해 봄직 할 것 같다.

4.5 M-VIA

4.6 MYRINET

4.7 BPROC

5. 참고 자료

1. diskless node script

ftp://ftp.sci.usq.edu.au/pub/jacek/beowulf-utils/disk-less

2. Root file system over NFS

/usr/src/linux/Documentation/nfsroot.txt

3. Myrinet

http://www.myri.com

4. Etherboot

http://etherboot.sourceforge.net

5. OpenPBS

http://www.openpbs.org

6. MOSIX

http://www.mosix.org

7. MPICH

http://www.mcs.anl.gov/mpi/mpich/index.html

8. OpenMP

http://www.openmp.org

9. PXE

http://www.lanworks.com

10. GFS

http://www.sistina.com/products_gfs.htm

11. PVFS

http://www.parl.clemson.edu/pvfs/index.html

12. spcc.uso.ac.kr 은 각종 벤치마크가 잘되어 있다

<출처 : 2001.10.15 | HiTEL Windows 동호회(k2win4@hitel.net)>

외국에 유학한 유학생이나 외국계 기업에 다니는 회사원, 외국에 수출하는 소프트웨어를 개발하는 프로그래머라는 세 계층은 척 보기엔 큰 공통점이 없어 보인다. 외국자 들어가는 것 빼고는. 하지만 이들은 공통적인 문제점을 하나 안고 있다. 사람은 한국인인데 컴퓨터의 운영체제는 영문 운영체제를 써야 하는 일이 생긴다는 것이다. 아무리 영어를 잘 아는 사람이라 할지라도 영문 운영체제는 한글 운영체제보다 작업 효율성은 떨어질 수 밖에 없다. 결국 불편을 감수하면서 영문 운영체제를 사용해야 하거나 한글 운영체제와 다중 부트 형식으로 사용할 수 밖에 없다.(VMWare와 같은 방식은 논외로 하자. 보통 사람은 잘 사용하지도 않는 방식이므로......)

상식적으로 생각해보면 두개의 운영체제를 필요에 따라 서로 바꾸어가며 부팅하는 것이 가장 좋아 보인다. 그러나 이 방법도 문제가 없는것은 아니다. 운영체제를 두개 설치하는 시간도 시간이지만 공간 낭비도 무시할 수 없다. 같은 소프트웨어를 따로 설치해주어야 하므로 이래저래 불편한 것은 아니다.(머리를 쓰면 이것도 최소화 할 수 있지만 크게 줄진 않는다.) 어차피 한 사람이 운영체제를 2개 사용하는 것인데 이것은 너무 커다란 불편이요 낭비이다.(배부른 소리라고 말하는 것은 상관 없다. 다음 글을 다 읽은 후에.)


앞에서 낭비, 낭비라고 외치는데 그러면 방법이 있는가? 방법이 있으니까 이런 소리라도 할 수 있는 것이다. 이러한 불편함을 없앨 수 있는 획기적인 방법을 Microsoft에서는 제공하고 있다. 불가능을 가능케 하는 비법, 그것이 바로 MUI 팩이다.




 MUI란 무엇인가?


MUI는 Multilingual User Interface의 약자이다. 한글로 굳이 쓰자면 다국어 사용자 인터페이스정도로 번역될 것인데 이것은 하나의 운영체제에 언어와 인터페이스만 바꾸어 주는 기능을 말한다.


쉽게 말해보자. 일반적으로 영문 운영체제라 한다면 시작 메뉴부터 안에 포함된 기본 소프트웨어, 글꼴, 키보드 및 마우스, 도움말이 모두 영문으로 표시되며 한글이나 일본어, 중국어, 아랍어는 정상적으로 표시되지 않는 운영체제를 말할 것이다. Windows 2000이 되면서 적어도 영문 운영체제에서 다른 언어를 보고 입/출력하는 것은 어느정도 융통성이 생기게 되었지만 여전히 기능과 애플리케이션은 영문판이다. 이것만으로도 사용상 불편함을 느끼기엔 매우 충분하다. MUI 패키지는 이 영문판 운영체제를 문자 입/출력 시스템부터 메뉴, 애플리케이션, 도움말까지 모두 한글화 또는 일본어, 중국어, 아랍어화 시킬 수 있다. 거의 완벽한 한글, 일본어, 중국어, 아랍어 Windows로 탈바꿈 할 수 있는 것이다.


 MUI 패키지에 대한 몇가지 의문점


영문판 운영체제를 쉽게 한글판, 일본어판, 중국어판 운영체제로 바꿀 수 있다는 점은 귀가 솔깃한 이야기가 될 것이다. 하지만 무조건 기뻐하기 전에 몇가지 의문점이 들 것이다. 일반적으로 MUI 패키지에 대해 많은 사용자가 문의하는 점에 대해 간략히 정리하여 보았다.


문 : MUI 패키지를 한글 Windows에 설치하면 영문, 일본어, 중국어 Windows가 됩니까?


답 : 그렇지 않습니다. MUI 패키지는 영문 운영체제에만 설치할 수 있습니다. 기타 언어 운영체제에는 설치할 수 없습니다.


문 : 저는 Windows XP Home Edition 영문판을 이용합니다. 여기에 Windows 2000 MUI를 설치할 수 있는지요?


답 : 설치할 수 없습니다. MUI는 Windows의 버전에 따라 내용물이 전혀 달라지므로 이전 버전 또는 이후 버전의 MUI는 사용할 수 없습니다. 또한 Windows XP의 경우 Home Edition은 MUI 패키지를 설치할 수 없습니다.


문 : MUI 패키지는 어디에서 구입할 수 있습니다.


답 : 시중에서는 MUI 패키지를 구입하실 수 없습니다. 원칙적으로 MUI 패키지는 이러한 환경에 있는 기업에만 특별히 공급되며 시중에서 따로 판매되진 않습니다. MUI의 구입은 각 국가의 Microsoft 지사에 문의하여 주십시오.


문 : MUI 패키지는 어느정도의 디스크 공간을 사용합니까?


답 : 얼마나 많은 언어의 MUI를 설치하는가에 따라 다릅니다만 최소 100MB에서 500MB까지의 추가적인 디스크 공간을 요구합니다. 용량이 큰 것처럼 보이지만 실제 2개 이상의 운영체제를 설치하는 용량에 비해서 훨씬 작은 크기입니다.


 MUI의 설치


Windows XP MUI를 설치하기 위해서는 일단 영문판 Windows XP Professional과 추가적인 디스크 공간이 필요하다. 준비가 되었다면  Windows XP MUI 패키지 CD를 넣는다.



 


 MUI 패키지의 CD를 넣으면 설치 화면이 시작된다. 이 화면은 사용자 계약서로서 반드시 한번은 읽어 보아야 할 정보를 담는다.(특히 MS의 사용자 계약서는 법률과 법률로 얽힌 법률의 함정이라 볼 수 있을 정도로 애매모호하고 나중에 문제가 될 수 있는 부분이 많다.) 철저히 읽고 동의할 경우 동의하는 항목에 체크를 하고 다음으로 넘어간다.



 


 설치할 언어 팩을 고르고 기본 언어를 설정한다. 한국인이라면 당연히 Korean에 체크를 할 것이고 필요하다면 일본어나 중국어(간체/번체), 독일어 등에도 체크를 한다. 또한 밑의 Default User Settings에서 기본 언어를 설정한다. 한글 입/출력을 원한다면 Korean으로 설정하고 OK를 누른다.



 


 일단 Windows XP 원본에서 각 언어에 맞는 입/출력 시스템을 복사/설치한다. Windows XP 원본 CD를 준비한다. 이 작업은 몇분정도 소요된다.



 이제 Windows XP MUI 패키지에서 UI 파일을 설치한다. 이 작업은 몇분에서 몇십분까지 걸릴 수 있으나 일반적인 시스템이라면 몇분내로 복사가 완료된다.




 복사 작업이 완료되면 복사가 완료되었다는 창이 표시된다. OK를 누르면 재부팅을 요구하므로 재부팅을 하도록 한다.


 언어를 변경하자


설치하고 재부팅을 해도 영문 Windows 상태에서 변함은 없다. MUI 패키지는 과연 가짜인가? 그렇지는 않다. 지금부터 UI를 변경하는 방법에 대해 간략히 살펴보기로 하자.



 제어판(Control Panel)에 가면 국가별 설정 항목으로 들어간다.



 이 항목에는 3가지 탭이 있는데 일단 Regional Options 탭에 있는 Standards and Formats와 Location 항목이 정상적으로 한국(또는 설정을 변경하고자 하는 언어를 사용하는 국가)으로 되어 있는 지 확인한다. 이 부분은 UI 변경과 관계는 없으나 단위 표시 및 정보 제공에 중요한 역할을 한다.



 Languages 탭으로 이동하면 맨 하단에 Language used in menu and dialogs 항목이 나타난다. 여기에는 추가한 MUI의 언어가 표시되는데 사용자가 원하는 언어로 변경한다. 변경 후 OK 또는 Apply를 눌러 적용한다.



 현재 사용자의 로그 오프를 해야 적용된다는 메시지가 표시된다. 재부팅 또는 사용자 로그 오프를 해준다. 이렇게 하면 설정된 언어로 모든 UI가 변경된다. 변경되기 전 UI와 변경된 UI의 차이를 아래에서 볼 수 있다.



 

 MUI의 장점과 단점


 장점


 요구되는 디스크 공간을 최소화 할 수 있다. 일반적으로 두가지 언어의 Windows를 독자적으로 설치하려면 최소한 300MB, Windows NT 계열 운영체제는 이보다 훨씬 많은 공간을 요구한다. 하지만 MUI를 설치할 경우 100MB 내외의 공간 점유만을 하므로 적은 디스크 공간에서도 최대한의 효율성을 발휘한다.


 언어의 전환이 매우 빠르다. 다중 부트의 경우 최소한 한번 재부팅을 하여야 하고 2개의 디스크를 이용할 경우 경우에 따라 BIOS에서 부팅 순서를 변경해야 하는 번거로움이 생기지만 MUI를 사용할 경우 언어 전환 후 로그 오프만으로도 언어를 쉽게 변경할 수 있다.


 일반적으로 타 언어 OS에서는 한글의 표시와 입/출력에 제한을 받는다. Windows 2000 이후의 운영체제는 이러한 제한이 좀 줄어들었으나 여전히 불편함은 남아 있는데 MUI를 사용하면 타 언어 Windows 상황에서도 언어의 입/출력이 자유롭다. 예를 들어 중국어 Windows에서 '우리나라 만세'라는 한글을 어디서든 쉽게 쓸 수 있다.


 단점


 MUI는 웬만한 프로그램과 도움말을 다른 언어로 바꾸어준다. 하지만 모든것을 다른 언어로 바꾸어주진 못하며 일부분은 여전히 영문 Windows 상태 그대로가 된다. 예를 들자면 장치 관리자의 경우 언어를 바꾸어도 여전히 영문으로 남는다.


 글꼴 또한 기본적으로 영문 글꼴로 표시되는 경우가 많다. 그러므로 한글 또는 표준 일본어 글꼴에 익숙해진 사용자라면 익숙하지 않은 영문 글꼴의 모양에 거부감을 느낄 수 있다.

[응용] 메모리 관리
글쓴이 : 유영창 (2004년 09월 17일 오후 05:54) 읽은수: 6,520 [ 임베디드강좌/유영창 인쇄용 페이지 ]
APK006 메모리 관리
==============================================

1. 개요

이 문서는 ESP-NS에서 동작하는 응용 프로그램을
작성할때 메모리 할당과 해제및 메모리 처리에
대한 주의점을 소개합니다.

작성자 : 유영창 frog@falinux.com
작성일 : 2004년 9월 17일
수정일 :

관련된 ADK( Application Developer Kit ) 디렉토리

adk/sample/check_index
adk/sample/assert


2. 임베디드에서 메모리 관련 문제

임베디드 시스템은 사용시간에 따라서 크게 두가지로
나누어 볼수 있읍니다.

첫번째는 필요한 경우만 전원을 넣고 동작시켜 사용하는 경우로
동작 시간이 짧은 경우입니다. (참으로 고마운 시스템입니다.)

두번째는 모니터링 시스템같이 지속적인 제어가 필요하여
1년 365일 전원이 절대로 나가면 안되는 경우 입니다.

프로그래머 입장에서 보면 첫번째 방식을 좋아 하게 됩니다.
이건 무정전 시스템에 사용되는 프로그램을 작성하신분들이라면
온몸으로 느끼는 감정입니다. ( 해본 사람들은 압니다. ㅜㅜ )


시스템이 무정전으로 동작한다는 것은 여러가지를 고려 해야 합니다.
그중 으뜸은 메모리 누수 입니다.

C 로 작성하는 프로그램은 반드시 메모리에 관련된 문제 때문에
한번 이상은 반드시 고생하게 됩니다.

더구나 C 언어에 익숙하지 않으신 분이라면 포인터 참조에 관련된
수 많은 버그로 엄..청..난... 고생을 합니다.

그래도

납품하기전에 메모리 관련된 버그 문제점을 알게 되면 그나마
다행입니다.

그러나 프로그래머 입장에서 두고 두고 속썩이는 것중 하나가
장기간 동작하다 멈추는 경우입니다.

프로그램을 수정해서 버그를 잡았는지 확인하려고 하면
몇일씩이나 걸리기 때문에 프로그래머들을 미치기 일보
직전까지 만듭니다. ( 대부분의 경우 어디에서 발생했는지도
잘 모르죠.. )

이런 경험을 여러번 하다보면 나름대로의 방법론이 생깁니다.

이런 경험과 관련되어 메모리를 다루는 방법에 대한 몇(?)가지와
메모리 할당과 해제에 관련된 함수를 소개하려고 합니다.


3. 배열을 사용하라....

PC 프로그램을 작성하시던 분들이 임베디드 시스템에서
프로그램을 작성할때 가장 걱정되는 습관 중 하나가
메모리 할당과 해제를 아주 좋아 한다는 겁니다.

PC 시스템에서 작성하는 프로그램은 실장된 메모리가
많기 때문에 메모리 할당과 해제를 이용하면
유연한 프로그램이 가능해 집니다.

그..러..나..

임베디드에는 메모리 할당과 해제를 자주 이용하는 습관은
절대적으로 말리고 싶은 것 습관중 하나입니다.

보통 제품을 설계하는 분들이 개발자들에게 요구하는 것중
하나가 만능제품이죠...

그런데 이 만능은 프로그래머가 만능이 되어야 합니다.
이런 경우에도 적용될수 있고 저런 경우에도 적용될수 있고

마음약한 개발자들은 이런 요구를 수용합니다.

그러다 보니 개발해야 하는 프로그램 구조가 요구 사항에
가변적인 구조를 가지게 되죠..

결국 메모리 할당 구조와 리스트와 같은 자료 구조를 사용하게
됩니다.

이때부터 개발자는 머리털 빠지기 시작합니다.
( 제가 속빈 인간이 된 사연이 여기에 있읍니다. )
리스트구조와 메모리 할당은 시스템의 버그 원인 순위에
가장 상위 순위를 차지 합니다.

오랜 연륜을 가지는 개발자들은 일단 이런 영업 요구에
적절히 대항합니다.

그리고 어느정도 제품이 필요한 요구 사항을 제한합니다.
그리고 그에 맞게 프로그램을 개발합니다.

이때 이 분들이 작성한 프로그램을 보면 ( 무정전 제품에
들어가는 프로그램일수록 ) 전역변수와 배열을 많이 사용하게
됩니다.

이 전역변수와 배열을 사용하는 것은
프로그램을 처음 배울때 회피하라고 들었던 것인데
의외로 고수일수록 많이 사용합니다.
(심지어 goto 문을 남발하시는 고수도 많습니다. )

배열을 사용한다는 것은 일정한 크기를 갖기 때문에
확장성에 용이하지 않을 것 같은데
환경 파일로 모든 확장성을 고려하는 것은 임베디드
제품에 크게 의미가 없읍니다.

이미 한정된 크기의 메모리를 가지고 있는 시스템에
확장할수 있는 크기를 가지도록 프로그램을 작성한다는 것은
의미가 없읍니다.


배열을 사용하게 되면 다음과 같은 장점이 있읍니다

1) 메모리 할당과 해제와 관련된 버그가 없다.
2) 메모리 할당과 해제에 소모되는 시간 소모가 없다.
3) 인덱스 방식의 참조가 가능하므로 잘못된 포인터
참조에 의한 버그 가능성이 작다.
4) 시스템의 메모리를 효율적으로 사용할수 있다.
5) 참조 속도가 매우 빠르다.
6) 프로그램 소스 코드가 직관적이다.
( 포인터 참조 연산자가 얼마나 어려운 코드 형식을
작는지 다들 아시죠? )

등등의 장점이외에 더 있지만 생각이 안 나는 군요...

어쩄든 임베디드 장비에 사용되는 프로그램은 가급적 배열을
사용하시는 것이 좋습니다.

3. 가급적 상수를 매크로로 정의해서 사용하라

메모리 이야기에 왠 매크로 상수?

뭐 이렇게 궁금하게 생각하시는 분들이 있을 것 같은데...
이래야 고수 소리를 듣습니다. 소스에 숫자가 적게 보일수록 고수 입니다


예를 들어 보죠...

어떤 분은 프로그램을 이렇게 작성합니다.

char check_ids[300];

고수는 이렇게 작성합니다.

#define MAX_CHECK_IDS 300
char check_ids[MAX_CHECK_IDS];


이것은 나중에 확장성을 가지는 효과가 있고
접근하는 인덱스의 검사를 할 경우에 유용합니다.


또한 인데스 검사를 하는 경우에 유용합니다.
보통 프로그램을 작성할때 인덱스 접근에 대하여
다음과 같이 처리하면 좋습니다.


char get_date( int index )
{
#ifndef NO_CHECK_INDEX_FLAG
if( (index < 0) || (index >= MAX_CHECK_IDS ) )
{
dlp( "index over\n" );
exit(0);
}
#endif
return check_ids[index];
}

또는 아예 인덱스 검사를 하는 함수를 매크로로 만들어서 사용하는 경우도 있읍니다.

선언예)

#ifndef NO_CHECK_INDEX_FLAG
#define check_index(idx,max) {\
if( (index < 0) || (index >= MAX_CHECK_IDS ) ) \
{ \
dlp( "index over\n" ); \
exit(0); \
} \
}
#else
#define check_index(idx,max) {}
#endif


사용예)

char get_date( int index )
{
check_index(index,MAX_CHECK_IDS);
return check_ids[index];
}

3. 초기화를 꼭 하라

변수를 사용할때 특히 전역 변수를 사용할때
초기화를 하는 습관은 버그를 예방하는 효과가 있읍니다.
특히 포인터 형식의 필드변수를 포함하는 구조체가 있을 경우에는 특히나 그렇습니다.

초기화 값은 0으로 사용하는 것이 좋습니다.
포인터의

4. sizeof 함수를 즐겨 사용하라

메모리 복사나 초기화를 사용할 경우와 같이 배열이나 구조체의 크기를 구할 필요가
있을때 sizeof 를 자주 사용합니다.

귀찮아서 그냥 숫자를 주는 습관을 가진 분들이 있는데
이런 분들에게 sizeof 함수의 사용을 강력하게 권장합니다.

앞의 배열에서 초기화를 처리할때 다음과 같은 형식으로 처리하는 것이 좋죠...

memset( check_ids, 0, sizoef( check_ids ) );

복사할 경우에 역시 이런 식으로 사용하는 것이 좋습니다.
하지만 복사할 경우에 크기는 어느 것을 사용하는 것이 좋을까요?
권장하는 것은 앞에것을 사용 하는 것입니다

void copy_item( struct a *bdata )
{
struct a adata;

// 권장하는 예
memcpy( &adata, bdata, sizeof( adata ) );

// 별로 권장하지 않지만 좋은 예
memcpy( &adata, bdata, sizeof( struct a ) );


}


5. 포인터의 간접 인덱스를 사용할 때는 주의하라...

포인터 변수를 사용할때 포인터의 초보자들이 실수하는 큰 것
중에 하나는 다음입니다.
특히 하드웨어를 다룰때 많이들 실수 합니다.

char *app;
int *bpp;

app++;
bpp++:

이것은 1씩 증가 시키는 겁니다.
그런데 app 나 bpp 에 0x300000 이라는 주소값이 있다면
app는 0x30000 이 되지만 bpp 는 0x300004 가 된다는 것을
까먹습니다.

이것이 나중에 속썩일 경우가 많다는 점을 기억하십시오

(app+ 1) 과 (bpp+ 1) 도 마찬가지 입니다.
이런것은 매크로를 사용해서 선언할 경우 많이들 실수하는 겁니다.

예를 들어 하드웨어 레지스터를 접근하는 경우에

#define REG_A(x) (x + 1)
#define REG_B(x) (x + 2)

이런식으로 처리할때 매크로는 단순히 문자열 치환이기 때문에
위와 같은 문제가 발생할수 있다는 것입니다.


6. 스택변수 즉 로컬 변수를 조심하자

함수안에 선언하는 로컬 변수는 두가지 장점이 있읍니다.

선언이 간단하고 할당에 걸리는 시간이 없다는 것입니다.
그러나 이 로컬 변수는 버그의 온상이 되므로 주의할 필요가 있습니다.

예를 들어 다음과 같은 경우를 생각해 봅시다.

int test_func( char *tmpstr )
{
char buff[32];
int p;

p = strlen( tmpstr) ;

sprintf( buff, "ID:%s", tmpstr );
write_func( buff );

return p;
}

이 함수를 소스상에서 본다면 아무런 문제가 발생하지 않는 함수입니다.
그런데 이 함수는 두가지 문제점을 가지고 있읍니다.

만약 tmpstr 이 NUL 코드를 포함하지 않는다면?
또는 tmpstr 이 28 자 이상이 된다면 ?

아...

프로그램은 어떻게 동작할지 아무도 장담할 수 없읍니다.

다행히 세그먼트 폴트라도 발생해서 미리 알수있다면 좋지만
스택을 접근 할 경우에는 세그먼트 폴트가 잘 발생하지 않습니다.

경우에 따라서는 스택이 깨지기 때문에 엄한 곳으로 프로그램이 점프할수도 있고
다른 변수들이 수정될수도 있읍니다.

더구나 특별한 경우에는 두번 호출되어 도착한 함수가 꺼꾸로 리턴될때
중간 함수를 거치지 않고 리턴되거나 진행 루틴이 실행되지 않을 경우도 있읍니다.

또는 뒤에 선언된 변수들 값이 수정될수도 있읍니다.

이런 경우에는 스택 변수의 크기를 아끼지 않는 것이 가장 최선의 예방책입니다.
(물론 주의해서 작성하는 것이 더 큰 최선의 에방책이죠.. )

예를 들어 넘어온 크기보다 2 배나 3 배정도의 크기를 잡는 겁니다.

위의 경우에는 char buff[128] 정도로 선언하는 것이 안전합니다.

또는 버퍼의 뒷쪽에 임의 변수를 하나 두는 것도 요령인데
별로 추천은 하고 싶지 않군요


7. 자료구조를 사용한다면 검증된 라이브러리를 사용하라..

프로그램을 작성하다보면 배열보다 리스트와 같은 자료구조를
이용하는 것이 효율적일때가 있읍니다.

대표적인 것들이

스택이나 , 큐, 더블 링크드 리스트 , 리스트, 이진 트리 리스트
등등이 있읍니다.

이때 많은 분들은 직접 만들어 사용합니다.

그런데 이런 처리는 포인터를 사용해야 하고 저같이 논리에 약한
사람들이 만들면 버그가 살기에 좋은 환경을 제공합니다.

그래서 저는 인터넷에 관련 자료 구조용 공개된 소스를 이용하기를
권장합니다.

특히 소스포지에 가면 이런 자료 구조체 라이브러리들이 많이 있읍니다.
가급적 이렇게 공개되고 여러사람이 사용하고 있는 것을 이용하기를
바랍니다.

직접 만들면 피 봅니다... ㅜㅜ

8. 메모리 할당 함수들

C 에서 메모리를 할당하기 위해서 사용하는 함수들은 다음과 같습니다.

void *calloc(size_t nmemb, size_t size); // 할당 + 메모리 클리어
void *malloc(size_t size); // 할당
void free(void *ptr); // 해제
void *realloc(void *ptr, size_t size); // 재 할당 + 메모리 복사

이 중에서 가장 많이 사용하는 함수는

malloc 함수와 free죠...

하지만 malloc 함수보다는 calloc 함수를 사용하기를 권장합니다.
(저역시 malloc 함수를 자주 사용합니다만 ㅜㅜ )
그래도 malloc 함수를 자주 사용하게 되면 다음과 같은 처리를 꼭 해주시기를 바랍니다.

char *buff = NULL;

buff = malloc( 1000 );
if( buff != NULL )
{
memset( buff, 0, 1000 );
}
else
{
// 에러 처리 ( 보통은 프로그램을 죽인다. )
}

if( buff != NULL ) free( buff );


9. assert 함수


앞에서 malloc 함수를 처리할때 에러가 난 경우에 대한 처리가 귀찮죠?
이런 경우 사용하거나 기타 등등에 사용하면 좋은 함수가 assert 함수입니다.


이 함수는 #include <assert.h> 를 포함하고 사용하면 되는데
사용 문법은 간단합니다.

assert( 논리식 );

이 함수는 논리식이 참이면 특별한 것을 하지 않습니다.
그러나 거짓이면 에러를 표현 합니다.
파일명과 함수명 그리고 라인번호와 함께 문제가 된 값을 표현합니다.
그리고 프로그램을 죽입니다.( 으으 살벌.. )

보통은 포인터 변수의 값이 0이 되는 것을 방지하기 위해서 사용합니다.

assert 함수는 NDEBUG 가 정의 되어 있으면 아무런 것도 하지 않는
함수이므로 소스를 수정하지 않고서도 함수의 에러 처리를 무효화
할 수 있는 무척 좋은 함수 입니다.


<<<  댓 글 >>>

답장 korone.net (2004년 09월 18일 오후 12:48)
글 잘 읽었습니다.
글에 첨언해서 개인적인 견해를 몇가지를 이야기 해보자 이렇게 글을 씁니다.

우선,

3. 배열을 사용하라에서 장점에 대해서 열거해 주셨는데요.
1) 메모리 할당과 해제와 관련된 버그가 없다.
--> 버그가 없다고 말할 수 없습니다.
포인터 사용에서 발생되는 잘못된 주소의 엑스스로 인한 segmentation fault같은거와
마찬가지로, 배열의 인덱스를 잘못 엑세스할 수 있는 버그가 동일하게
발생될 수 있습니다. 가령 이런경우죠.
char aaa[10];
aaa[11] = 'd';
이런식으로 사용한다면 이 결과는 포인터와 마찬가지의 결과를 가지고 오게
됩니다.
지금 위 예제코드에서는 단순히 선언과 동시에 바로 아래에서 써서
이런 어이없는 경우가 어딨냐고 반문하실지 모르겠지만.
실제 프로그램 로직이 복잡한 상황에서 변수 선언과 실제 인덱스를 접근해서
사용하는 위치의 차이가 큰 경우가 많기때문에 충분히 저러한 상황이
발생할 수 있습니다
따라서, 배열로 하나 포인터로 하나 사용자가 주의를 기울이지 않으면 똑같은
결과가 나타날거라 판단됩니다.

2) 메모리 할당과 해제에 소모되는 시간 소모가 없다.
배열에 의한 메모리 할당의 가장 큰 장점은 해제 과정이 필요없다라는거죠
하지만, 이러한 장점보다는 포인터와 비교했을때의 단점이 더 많다고 보여집니다.
가령,
배열의 경우, 굉장히 않은 메모리를 할당할경우, stack에 생성되는것이
아니라, heap에 생성되므로 포인터와 동일한 연산을 수행하며,
포인터의 경우 메모리가 필요한 그 시점에 사용되어지고 유지되는 반면에
배열의 경우 이미 해당 작업 공간을 할당해 있으므로 메모리 사용에
제약이 가져올 수 있습니다.
또한, 비록 배열이 메모리 해제과정이 없으나, 실제 내부코드적으로
해제과정에 필요한 OP 코드가 생성되므로, 기본 연산은 거의 같다고
보아야 하므로 의미가 없을거란 생각이 됩니다.

3) 인덱스 방식의 참조가 가능하므로 잘못된 포인터
참조에 의한 버그 가능성이 작다.
--> 이건 1번 내용과 중복되는 설명입니다.

4) 시스템의 메모리를 효율적으로 사용할수 있다.
--> 2번 설명에서 밝혔듯이 전혀 효율적이지 않습니다.

5) 참조 속도가 매우 빠르다.
--> 속도가 빠른것은 인정할 수 없습니다.
어떠한 기준에 의해서 이러한 결과가 나왔는지 궁금합니다.

6) 프로그램 소스 코드가 직관적이다.
( 포인터 참조 연산자가 얼마나 어려운 코드 형식을
작는지 다들 아시죠? )


배열역시 포인터 입니다.
앞서 강좌에서 배열의 중요성을 이야기하는 관점이 잘못된 포인터 연산에
따른 문제점이 크기 때문이라고 하셨는데.
이때문에, 포인터 사용의 이점을 버린다는것은 잘못된것이라 판단됩니다.
포인터에 대한 명확한 이해를 하고 사용해야 하며,
또한, 문제점에 대해서 충분한 검증을 거치는 방법
가령, leak tracer나, memory profiler를 이용해서 테스트 & 검증해나가는
방법이 바람직하다 보여집니다.


6번에서 들으신 예를 보면
로컬변수의 장점이
"선언이 간단하고 할당에 걸리는 시간이 없다는 것입니다."라고 하셨는데
무엇과의 시간을 비교해서 할당에 걸리는 시간이 없다라는 의미인지요?
할당에 걸리는 시간은 전역변수나 로컬변수가 항상 같지요.
물론, 함수의 호출이 빈번할 수록 생성 해제의 과정이 반복되는점은
있지만, 변수 선언하나만 놓고 보았을때 같습니다.

그리고 아래에 예제 코드를 적어서 문제될만한 소지를 적어 주셨는데
이것은, 로컬변수의 문제점이 아닙니다.
Boundary check를 하지 않아 memory overflow가 나는겁니다.
이러한 문제점은 오래전부터 있어서 주로 해킹에 많이 이용되었는데.
이를 보완하기 위해,
strcpy 함수나 sprintf 함수같은경우 권고하지 않고
사이즈를 넘겨줄 수 있는 strncpy 함수나 snprintf함수를 사용하길
권고합니다. (리눅스 맨 페이지를 참고하면 자세한 사항을 알 수 있습니다.)


이상입니다.
고수님의 강좌글에 대해서 하수가 이런저런 토를 달아서 죄송합니다.

조병완
http://www.korone.net
[ 이글에 답장 | 본문에 답장 ]

답장 유영창 (2004년 09월 18일 오후 09:32)
3. 배열을 사용하라에서 장점에 대해서 열거해 주셨는데요.
1) 메모리 할당과 해제와 관련된 버그가 없다.
--> 버그가 없다고 말할 수 없습니다.

인정합니다 버그가 없다니
이런 실수를 .... 용서하십시오..


2) 메모리 할당과 해제에 소모되는 시간 소모가 없다.

배열에 의한 메모리 할당의 가장 큰 장점은 해제 과정이 필요없다라는거죠

--> 이 부분 역시 인정...


하지만, 이러한 장점보다는 포인터와 비교했을때의 단점이 더 많다고 보여집니다.

--> 인정 하기 힘듭니다.

이건 개발자 스킬과 연관이 있읍니다.
제가 이글을 쓴 목적중 하나가 개발 과정에 실수를 줄이는 부분입니다.
또한 장기간 사용되는 부분 때문입니다.

포인터를 쓰지 말라는 것이 아닙니다.

할당과 해제보다는 가급적 배열을 쓰기를 권장한다는 말입니다.

즉 프로그램머가 프로그램이 복잡할수록 할당과 해제과정에서
실수를 많이 합니다.

그래서 많은 디버깅 툴들이 주로 메모리 릭에 관련된 부분을 점검하는것으로 압니다.

할당과 해제에서 버그가 없는 분들은 이미 닳고 닳은 분들입니다.
그런분들은 이미 코드 작성시에 방어적인 코드로 작성합니다.
이부분만큼은 당해봐야 아는데
배열과 같은 부분은 사전 할당이 되기 때문에 손해가 적습니다.
특히 초보자들에게는

제가 보기에는 조병완씨는 고수로 보입니다. ^^

3) 인덱스 방식의 참조가 가능하므로 잘못된 포인터

이 부분은 조금 더 세밀하게 이야기 하면

함수에 매개변수로 인자를 넘길때 포인터를 많이 사용합니다.
그런데 이 포인터 참조 방식으로 넘길 경우에는
범위 초과에 대한 처리를 검증할 방법이 없는 경우가 많습니다.
그러나 인덱스로 넘기면 디버깅 과정에서 추적도 용이하고
검증 함수를 사용할수 있읍니다.
제가 이야기 한것은 이런 관점에서 인덱스를 사용하기를
권장하는 것입니다. 그리고 가급적 매크로 상수를 사용하기를
권하는 것이지요..

4) 시스템의 메모리를 효율적으로 사용할수 있다.

꺼꾸로 임베디드 시스템은 한정된 메모리를 가지고 있읍니다.
다시 말씀드리면 시스템 사양이 결정될 때 역계산에 편할수 있읍니다.

예를 들어

나는 이 시스템에 300명까지를 처리할수 있도록 하겠다와
나는 이 시스템에 상황에 따라서 300명에서 600명까지 처리하겠다는
그 구현방식에 따라서 버그 가능성은 매우 달라집니다.

이건 제 경험이기 때문에 다른 경험을 하시는 경우라면 해당되지 않겠지만
저는 프로그램을 작성할 때

ptrData = malloc( 100 );
if( ptrData == NULL )
{

}

하는 문장에서 많은 갈등을 합니다.

에러가 나면 어떻게 할까요?

그냥 프로그램을 종료하게 할까요?

동작중인 상태에서 무정전에 이런 처리 상황은 조금 불편하죠...
꺼꾸로

처음부터 모든 할당을 하고 시작한다는 조건이라면
저역시 말씀하신 의견에 찬성합니다.


5) 참조 속도가 매우 빠르다.
--> 속도가 빠른것은 인정할 수 없습니다.

실수 ( 헤헤 ) 제가 왜 이런말을 썼는지 다시 한번 생각해 보겠읍니다.
(분명히 이유가 있었는데 쩝 )

앞서 강좌에서 배열의 중요성을 이야기하는 관점이 잘못된 포인터 연산에
따른 문제점이 크기 때문이라고 하셨는데.
이때문에, 포인터 사용의 이점을 버린다는것은 잘못된것이라 판단됩니다.
포인터에 대한 명확한 이해를 하고 사용해야 하며,
또한, 문제점에 대해서 충분한 검증을 거치는 방법
가령, leak tracer나, memory profiler를 이용해서 테스트 & 검증해나가는
방법이 바람직하다 보여집니다.

--> 장기적으로는 저 역시 동의합니다.
하지만 저같이 게으른 사람은 그것을 느끼고 회피하는데 너무 많은 시간과
너무 많은 고생을 했읍니다.

배열로도 가능하면 그냥 배열로 처리하라는 것이 요즘 제 생각입니다.


그외 지적사항 역시 겸허히 받아 들입니다. ^^
[ 이글에 답장 | 본문에 답장 ]

답장 익명 (2004년 09월 20일 오전 10:59)
음... 로컬변수는.. 그냥 스택포인터만 조정하면 되니깐 빠른거 아닐까요? ㅡ,ㅡㅋ

하긴 생각해보니 임베디드 시스템에서 굳이 메모리를 놀릴필요가 없겠네요. ㅡ,ㅡ;

무의식적으로 보다 일반적이고 범용적인 코드를 짜려고 굳이 애써왔던 기억이 ㅡ,ㅡ;

이래서 쟁이라는 소릴 듣나. ㅡ,ㅡ;;;

아무튼 좋은 글 좋은 의견 잘 보았습니다. 확실히 크게 배운 것은 있습니다.
[ 이글에 답장 | 본문에 답장 ]

답장 korone.net (2004년 09월 20일 오후 12:12)
일반적으로는 그렇죠^^

로컬변수의 경우, 스택포인터만 조정하면 되니까,

하지만, 만약 스택에 담을 수 있는 변수의 길이를 넘게된다면 이야기가

틀려집니다.

만약, char tmp[100000];

이렇게 선언한다면, tmp 변수는 stack에 생기지 않고 heap에 생기게 됩니다.

임베디드 라서 굳이 메모리를 놀릴필요가 없겠다라는 말이

임베디드의 경우, 단가가 생명인데...

만약, 메모리를 64메를 올려놓고 프로그램을 짤때...

프로그램 메모리 사용을 효율적으로 해서 32메가로도 처리할 수 있다라면

이는 제품 단가를 줄일 수 있는 효과적인 방법이라 될 수 있다고 봅니다.

물론 강좌를 쓰신 유영창님께서도 밝혀주셨지만.

초보자를 위하고 어떠한 효율성보다도 안전성이 우선시 되는 임베디드

상황에서 나름대로 일리도 있다고 봅니다.

조병완
http://www.korone.net
[ 이글에 답장 | 본문에 답장 ]

답장 익명 (2005년 01월 18일 오후 03:43)
5) 참조 속도가 매우 빠르다.
--> 속도가 빠른것은 인정할 수 없습니다.

보통 프로그래밍시 동적으로 메모리를 할당 받는 경우는
대부분 리스트 이용을 위해서인데 배열이 리스트의 참조 속도보다 월등히
빠르다는 것을 인정할 수 없다는 것은 이해할 수 없군요.
배열의 참조는 상수 타임이며 리스트이 참조 시간은 빨라야 nlog(n)
time complexity를 갖게됩니다.
[ 이글에 답장 | 본문에 답장 ]

답장 익명 (2004년 09월 26일 오후 10:05)
전역변수보다 지역변수는 매번 비역변수의 공유영역을 지우고 다시 쓰는
절차가 컴파일러의 서브루틴 생성시 마다 발생하므로 결국 실행속도는
전역변수보다 지역변수가 느려집니다.
[ 이글에 답장 | 본문에 답장 ]

답장 익명 (2006년 12월 28일 오전 10:18)
포인터 사용에는 신중해야 합니다 에러의 주범 맞아요

참고 사이트(http://cafe.naver.com/themaxkor.cafe?iframe_url=/ArticleRead.nhn%3Farticleid=29)

ms-window
에서 dev-c++(devcpp) gtk+ 으로 프로그래밍 하기


c도 초보고 gtk+도 초보입니다. 하지만 셋팅을 하는 동안의 과정을 간략하게 정리하고자 합니다.
dev-c++은 설치되었다는 전제하에서 설명하겠습니다. (참고로 dev-c++의 주소는 http://bloodshed.net/index.html 입니다.)
dev-c++을 한글환경에서 설명할 것이기 때문에 한글환경이 아니라면, 메뉴의 ‘tools’ -> ‘environment options’ 에서 ‘interface’ 탭에 있는’ language’에서 ‘korea(한국어)’를 선택하세요.

1. gtk+ 설치를 위한 사전 작업
gtk+는 다른 라이브러리들과 의존성을 가지기 때문에 사전에 의존성을 가지는 라이브러리들을 설치해주어야 합니다.

라이브러리 목록은 다음과 같습니다.

  • glib

  • atk

  • pango

  • zlib

  • libpng

  • libpixman

  • cairo

7개의 라이브러리를 먼저 설치해 주어야 합니다. 마지막에 있는 cairo는 바로 위 두개(libpng, libpixman)에 의존성을 가지므로 cairo를 설치하기 전에 두개의 패키지를 먼저 설치하여야 하고, libpngzlib에 의존성을 가지므로 zlib를 먼저 설치해야 합니다. 일단 이부분은 접어두고 총 7개의 라이브러리를 먼저 설치해야 합니다. 아래 부분에서 자세히 설명을 할테니 넘어갑시다.

설치를 위해 dev-c++에서 제공하는 패키지 업데이를 진행하면 됩니다.

메뉴의 ‘도구’ -> ‘프로그램 업데이트’를 선택하면 아래와 같이 하나의 창이 뜹니다.

select devpak server’에서 ‘devpaks.org community devpaks’를 선택합니다.

그리고, 아래의 ‘check for updates’를 클릭합니다. 그려면 프로그래스바가 진행되고 ‘available updates list’에 업데이트할 수 있는 목록이 작성됩니다. 그리고, ‘check for updates’는 ‘download selected’로 바뀌게 됩니다.

설치순서는 아래와 같습니다.

   1.
zlib
   2.l
ibpixman, libpng
   3.
atk, cairo, glib, pango


순서대로 각 항목에 체크를 하고 ‘download selected’를 눌러주면 됩니다. (한 항목에 두개 이상의 패키지가 있으면, 체크란에 두개 다 체크하고 ‘download selected’를 눌러주면 됩니다.) 간단한 대화창과 함께 설치가 완료되면, 이제 준비작업은 끝났습니다. (사실 준비작업이라 말하기는 좀 그렇지만...)


2.gtk+
설치
이제 gtk+를 체크하고 설치하면 됩니다.(download selected)
이제 gtk+를 프로그래밍을 하기 위한 준비는 끝났습니다. 그런데, 실행파일을 만들기 위해서는 dll 파일들이 필요합니다. 이 파일들을 gimp에서 다운받을 수 있습니다.

윈도우를 위한 gimp의 주소는 http://gimp-win.sourceforge.net/ 입니다. 다운로드 주소는 http://gimp-win.sourceforge.net/stable.html 입니다. 그런데...

gtk+ 2 runtime environment를 다운받아야 하는데, 목록이 두개가 있습니다.

저는 xp환경이라 위에 있는 (version 2.10.6 for windows 2000 and newer) 다운받고 압축풀고 설치를 시작하면 간단한 대화상자가 나오고, 설치를 하면됩니다.


3.gtk+ 프로그래밍 해보기
메뉴에서 ‘파일’ -> ‘새로 만들기’ -> ‘프로젝트’ 를 선택합니다. 그러면 아래와 같이 창이 뜹니다.
basic 탭에서 gtk+ application, 프로젝트명을 적당히 적어주고 언어는 c를 선택합니다. 그리고 확인을 누르면 gtk+ 프로그래밍을 할 수 있게 소스창이 구성됩니다.

메뉴에서 ‘실행’ -> ‘컴파일’ 그러면 컴파일이 되고 실행파일이 만들어집니다. 이제 gtk 프로그램이 완성되었습니다.

이제 http://gtk.org에서 튜토리얼을 보면서 이것저것 공부하면 됩니다. ^^
(그런데, ‘실행’ -> ‘실행’을 눌러주면 먹통일 때가 있습니다. 소스를 컴파일 한 곳에서 가서, 실행파일을 어떤 dll파일이 필요하다는 에러메시지가 뜹니다. 이때를 위해 조금전에 gtk+ runtime environment를 설치한 것입니다. ‘program files’- > ‘common files’ -> ‘gtk’ -> ‘2.0’ -> ‘bin’ 폴더에 보면 많은 dll파일들이 있습니다. 그곳에서 dll 파일을 찾아 실행파일이 있는 곳에 복사하고 실행파일을 더블클릭하면 이제 실행이 됩니다. 패스를 걸어주셔도 됩니다.)

+ Recent posts