한글로 된 URL을 정상적으로 처리할 수 있게 하는 mod_url.c의 설치 방법은 다음과 같습니다. 현재 실행되고 있는 httpd 프로세스를 확인하여 DSO(Dynamic Shared Object)가 사용 가능한지 확인합니다. 다운 로드 : http://kle.kldp.org/apache/mod_url.c http://kle.kldp.org/apache/readme.mod_url 1. DSO 확인 =========== # httpd -l (in debian) Compiled-in modules: http_core.c mod_so.c mod_php3.c # /usr/sbin/httpd -l |grep mod_so (in redhat) mod_so.c 여기서 mod_so.c 가 보이면 DSO를 통해 간편하게 mod_url.c를 설치할 수 있습니다. 2.1. 컴파일(일반적인 경우 RedHat은 아래 참조) ============================================ 설치는 아파치 확장 툴인 apxs를 이용합니다. #apxs -i -a -c mod_url.c 이렇게 실행하면 됩니다. $ apxs -i -a -c mod_url.c gcc -fpi
# apache 1.3.x apache_1.3.x/src/include/httpd.h HARD_SERVER_LIMIT 256 # apache 2.0.x - prefork httpd-2.0.63/server/mpm/prefork/prefork.c DEFAULT_SERVER_LIMIT 256 - worker httpd-2.0.63/server/mpm/worker/worker.c DEFAULT_SERVER_LIMIT 16 DEFAULT_THREAD_LIMIT 64
하드디스크 속도체크 # 버퍼링되어 있지않은 데이터의 디스크 ACCESS 속도 검사 hdparm -t /dev/sda # 버퍼링되어 있는 데이터의 디스크 ACCESS속도 검사 hdparm -T /dev/sda # CD-ROM 드라이브 읽는속도 검사 hdparm -t /dev/cdrom
리눅스를 사용하고 있는 사용자 중, 많은 수의 사람들은 아파치 웹 서버를 사용하고 있을 것입니다. 이들 중에는 아파치를 공부하기 위해 사용하시는 분도 계실 것이고, 자신만의 웹서버를 운영하기 위해 사용하시는 분도 계실 것이고, 업무상 사용하시는 분도 계실 것입니다. 저를 포함해서 아파치를 사용하시는 분들이 공통적으로 궁금해 하는 것이 있습니다. 바로 방문정보입니다. 자신의 사이트에 얼마만큼의 방문객이 다녀갔고, 가장 많은 방문객이 엑세스 한 파일은 어떤 것이며, 어떤 검색 엔진에서 어떤 검색어를 사용해서 사이트를 알게 되었나 하는 등등의 것입니다. 이러한 궁금증을 해소하기 위해 아파치 웹 로그 분석 프로그램 중 하나인 Webalizer를 소개하고자 합니다. Webalizer는 빠르고 강력한 웹 로그 분석 프로그램입니다. 아파치의 로그파일을 분석해서 그 결과를 html형태로 출력해 주기 때문에 매우 자세한 결과를 쉽게 확인 할 수 있습니다. Webalizer 설치하기 다음 URL은 Webalizer를 다운로드 할 수 있는 Webalizer 홈페이지입니다. http://www.mrunix.net/webalizer/ [Webalizer의 홈페이지] Webalize
YUM을 이용한 Redhat 패키지 관리 YUM (Yellowdog Updater Modified)을 통한 Redhat 계열 서버 관리. 리눅스 서버 관리자나 IT에 종사하는 사람들의 가장 큰 적은 바로 "귀찮음" 이다. 거의 매일같이 나오는 프로그램의 취약성 / 오래된 패키지들의 업데이트 들은 정말 필요하지만, 귀찮은 작업이 아닐수 없다. 윈도우의 windows updates처럼 자동으로 패키지를 관리해주면서, 필요한 업데이트를 받을수있다면 하는 생각을 하는 리눅스 관리자들이 많을 것으로 생각된다. 그나마 Freebsd, gentoo 등의 OS들은 나름대로의 패키지 관리자가 따로 있어 패키지의 업데이트및 설치를 쉽게 할 수 있어 왔으며, 이것은 그들 OS만의 큰 장점으로 자리매김해 오고 있었지만, 설치2및 사용이 일반 Redhat계열의 리눅스에 비해 어렵고, 이들 OS에 대한 자세한 메뉴얼이나, 도움을 얻을수 있는곳이 별로 없어 국내에서는 많이 사용 되고 있지는 않다. 국내에 많이 배포된 linux중에서는 Redhat이 있다. 전세계적으로 가장 많은 사용자를 보유하고 있어, 트러블 슈팅 등 많은 정보를 손쉽게 얻을수 있는 장점은 있었으나, 전문화된
예전에 포스트로 적어 뒀던거 같은데 기억도 가물가물해서 다시 [php.ini 설정] file_uploads = On ;파일 업로드 사용여부 upload_max_filesize = 10M ;업로드 파일의 최대 크기 post_max_size = 11M ;PHP가 허용하는 POST 데이터의 최대 크기 POST 데이터가 허용하는 최대 사이즈를 설정합니다. 이 설정은 파일 업로드에도 관여합니다. 큰 파일을 업로드 하기 위해서는 이 값이 upload_max_filesize보다 커야만 합니다. 환경 설정 스크립트에서 메모리 제한을 활성화하였으면, memory_limit도 파일 업로드에 관여합니다. 일반적으로, memory_limit는 post_max_size보다 커야만 합니다. memory_limit = 20M ;스크립트가 사용할 수 있는 최대 메모리 크기스크립트가 사용할 수 있는 최대 메모리 양을 바이트로 설정합니다. 엉망인 스크립트가 서버의 많은 메모리를 차지하는 것을 방지할 수 있습니다. PHP 4.3.2부터, memory_limit를 활성화 했을때, PHP 함수 memory_get_usage()가 사용 가능합니다. 크기 설정시
/usr/local/bin/memcached -p 11211 -m 64m -d -m 64m : use 64mb memory -p 11211 : use port 11211 -d : background execute -h : 명령어 도움말 -w : debuging mode
출처 : http://wiki.heedy.pe.kr/index.php/Memcached 1 서론 2 memcached의 캐쉬 방식 3 memcache의 인스톨 4 memcache의 기동 5 memcache의 동작확인 서론 memcached는 고속의 분산형 Memory Cache이며, 주로 DB에의 참조 결과를 Cache, 웹시스템에 있어서의 성능향상을 위해 많이 사용된다. 웹시스템에 있어서의 부하대책 서버의 구성을 살펴본다. Scale Out (서버의 수를 늘린다) Scale Up (CPU/Memory 등의 하드웨어를 향상시킨다) OS/Middleware의 설정을 살펴본다. 네트워크구성을 살펴본다. 어플리케이션 로직을 살펴본다. 위의 대책 중에 DB서버에의 대책에는 데이터의 배치, 데이터 액세스방법을 어떻게 구현했는지가 문제가 된다. DB서버에의 부하를분산 (DB파티션팅 등의 기술을 사용해 Scale Out) DB서버에 있어서의 쓸때없는 처리를 줄인다. (DB Query를 다시 살펴본다) 바로 memcache가 위의 문제가 될 수 있는 곳의 해결책이 될 수 있을 것 같다. memcached에 의한 성능향상 파일 입출력 (File I/O)가 줄어듬 파일의 내용
NFS의 locking 문제 NFS는 locking 에 대한 문제가 발생하곤 하는데, 이는 동일한 파일에 대해 서로 다른 서버가 write 요청을 할 때 발생한다. 동일한 파일로의 read 요청은 얼마든지 많아도 ( 물론 충분히 바쁜 서버들의 규모에서 ) 웹 서버쪽에서는 한번만 읽으면 되고, read 의 경우 어느 서버가 언제 가져가도 큰 문제가 되지 않지만 서비스를 동일한 파일에 서로 다른 서버가 쓰기위해 접근하도록 설계 했다면, NFS 안쓰는게 낫다. 다르게 말하면 동일한 파일을 쓰지 않게만 설계 하면 NFS 서버의 Net I/O 및 Disk I/O 가 허용하는 범위 내에서는 아주 좋은 동작 성능을 확보 할 수 있겠다.
expect 를 이용한 자동화 프로그래밍윤 상배dreamyun@yahoo.co.kr 차례 1절. expect 란 2절. expect 를 이용한 자동화 프로그래밍 2.1절. expect + tcl 또는 expect + perl 2.1.1절. perl expect 모듈 설치하기 2.1.2절. expect 를 이용한 ssh 자동로그인 프로그램3절. 결론1절. expect 란expect 는 다른 응용 어플리케이션과 상호대화(interactive)하는 프로그램을 만들기 위해 만들어진 프로그램이다. 나중에 expect 를 보면 알겠지만, 간단한 프로그래밍 언어 형식을 취하고 있음을 알수 잇다. expect 를 이용하면 다른 어플리케이션과 상호대화를 할수 있게 됨으로 자동화된 프로그램을 만들수가 있다. telnet 를 예로 들어보자면, expect 를 이용해서 telnet 와 상호작용하게 함으로 써, 자동로그인 하는 프로그램을 만들수도 있으며, 약간 응용해서 원격지의 서버를 자동으로 관리하는 프로그램을 만들수도 있다. 이러한 어플리케이션과의 상호대화는 어플리케이션의 표준출력 를 분석함으로써 이루어진다. 간단한 예로 telnet 을 써서 어떤 호스트에 연결하면 로그인 하기
Dec 24 11:03:01 48s crond[13447]: (*system*) RELOAD (/etc/crontab) 1. 퍼미션 확인 chmod 600 /etc/crontab 퍼미션 수정 후 crond을 재시작 해준다
exportfs 명령어는 nfs서버를 다시 시작하지 않고도 공유목록을 수정할 수 있다. -a : /etc/exports 파일을 읽어 들인다. -r : /etc/pxports 파일을 다시 읽어 들인다. -u IP:/디렉토리 : 입력한 디렉토리를 공유목록에서 제외한다. -v : 현재 공유 목록을 확인한다.