반응형

대표적인 개인 서버 전용 웹 스토리지 비교

 

 

 

 

 

 

지난 시간에는 각종 포털들에서 제공하는 개인 스토리지 서비스에 대해서 글을 써보았습니다.

 

2014/07/08 - [웹서버 구축하기/웹 스토리지(클라우드)] - 클라우드 서비스 비교

 

이번 시간에는 제가 사용해본 몇몇가지 PHP 기반 웹 스토리지 프로그램을 소개하고 비교하는 시간을 가져보도록 하겠습니다.

이미 블로그 초반에 개인서버를 구축하는데 있어 목표중에 하나인 개인 스토리지 입니다. 그리고 가족이나 지인들에게 일정 공간을 제공하기 위해 아이디가 발급 가능하도록 하는 것을 위주로 비교하였습니다.

 

제가 비교 사용할 후기는 네 가지 입니다.

 

 

 

 

 

 

1. Own Cloud

 

 

 

2. Pydio (구 AjaXplorer)

 

 

 

3. h5ai

 

 

 

4. elfinder

 

각각의 장점과 단점에 대해서 적어보도록 하겠습니다. 위의 네가지 모두 사용을 해봤으며, 아직도 사용을 하고 있습니다. 모두 소개를 하지만 실제로 사용하실 때, 이중에 하나만 사용하는 것을 추천합니다. 먼저 모두 설치후 비교사용하는 것도 괜찮겠네요.

 

먼저, OwnCloud 입니다.

<실사용 화면>

 

 

로그인 화면

 

 

개인 계정 접속후 관리 화면

 

#장점

1. 개인 서버에서 구축한 웹하드로 보기에는 속도가 빠른 편입니다. 

2. 다양한 어플들을 지원해서 잘 구성하면 대형 포털과 맘먹는 편의를 구성 할 수 있습니다.

3. 인터페이스가 아주 깔끔합니다. (제가 이런 스타일 좋아합니다.)

4. 모바일 기기 전용 앱을 지원합니다. (아이폰, 안드로이드, 태블릿 등등)

5. 드래그 앤 드롭 인터페이스를 지원합니다. 

 

#단점

1. 한글 파일이 지원이 되지 않습니다. 

2. 모바일 기기 전용 앱이 유료(!) 입니다.

3. 관리자 계정으로 설정하는 부분이 자세하지는 않습니다. (좀 더 상세한 설정을 하려면 config 파일을 수정해야 합니다.)

 

개인적으로는 뭔가 고급스러워 보이는 것 같아보입니다. 개인이 구축한 웹하드이지만 뭔가 전문적인것 같고, 전체적인 분위기가 무료 같아보이지 않아 좋아합니다만, 한글파일 및 폴더 생성시 생성안되는 문제는 아직 해결중에 있습니다. UTF-8로 변환하면 될 듯한데, 아직 관련된 부분을 못 찾겠네요.

 

데모 사이트 - http://owncloud.org/

 

 

 

두번째로 pydio 입니다. 이전에 AjaXplorer 의 후속 버전인데, 이전부터 유명했던 웹하드 소스 프로그램을 업그레이드 한것이라서 꽤나 쓸만합니다.

 

<실사용 화면>

 

 

로그인 페이지

 

 

로그인 후 화면 3분활 화면으로 진행됩니다.

#장점

1. 한글 파일 및 한글 폴더를 잘 지원합니다.

2. 드래그 앤 드롭 인터페이스를 지원합니다.

3. 3분할로 미리보기 및 브라우징에 용이 합니다.

4. 모바일 앱을 지원합니다. (게다가 무료입니다.)

5. 기본에 충실합니다. (파일을 잘 업로드하고 잘 다운로드하고, 잘 보여줍니다.)

 

#단점

1. 페이징 속도가 느린편입니다. 파일 폴더별로 확인할 때는 괜찮지만, 계정내 설정이나 Work Space내 폴더 전환시 조금 시간이 걸립니다.

2. 설치 과정이 조금 복잡합니다. (예전에 설치해서 가물가물 하기는 한데 처음 설치시 꽤 고생한 적이 있습니다.)

3. 초기 로딩이 조금 오래 걸립니다.

 

쓰다보니 느린 것 빼고는 단점이 없네요. 대신 느린 것이 조금 치명적입니다. 광랜으로 바꾸고 싶어져요.

 

데모사이트 ( ID : demo / PW : demo) - https://demo.pyd.io/

 

 

다음은 요즘에 굉장히 가벼워서 사용자가 급속히 늘어나고 있는 h5ai 입니다.

 

<실사용 화면>

 

 

새 버전부터 사용하능한 비빌번호 로그인 입니다.

 

치명적이기는 한테, IIS를 지원안합니다....

 

 

억지로 구동시켜 본 모습입니다. 정상작동은 되지 않습니다.

#장점

1. 깔끔합니다. 모노톤을 사용해서 난잡해 보이지 않고 정말 기본에 충실합니다. (데모사이트 확인하세요.)

2. 속도가 빠릅니다. 가벼운 만큼 브라우징에서 엄청난 강점을 보입니다. 

3. 각각의 파일마다 QR 코드를 지원하여 외부 링크를 쉽게 만들 수 있습니다.

4. 아이콘 크기도 부드럽게 변경하능 합니다. 

 

#단점

1. IIS를 지원하지 않아요. 차후를 기대 해보든가, 아님 다른 서버로 실행하던가 해야 합니다.

2. 초반에 설치 후 실제로 접속 가능한 경로는 처음 설치 경로와 달라서 접속주소가 다릅니다. (실사용 확인)

예) 

원래 설치 도메인 http://pydio.domain.com

실제로 접속해야 하는 도메인 http://pydio.domain.com/server/php/index.php

3. 갖가지 기능들을 모두 사용하기 위해서는 PHP Extension을 추가로 활용해야 합니다.

4. 보안이 아주 꽝입니다. 설정을 제대로 하지 않고 일반적인 설정만 진행하면 서버의 루트까지도 진입할 수 있습니다. (안그래도 이전버전은 암호없이 접속을 하였는데!) 

 

전체적으로 엄청 깔끔하고 가벼워서 속도가 빠른, 속도가 가장 큰 장점인 이 h5ai 는 MIT에서 만들어졌습니다. 머리좋은 양반들이 편의성을 위해 만든것 같은데, 아직도 문제가 되는 부분이 있습니다.  인줄 알았는데 MIT 라이센스를 따라가고 있는 거군요. MIT만 보고 착각했습니다. 버전을 보아하면 아직도 0. 대이기 때문에 정식 버전은 아직 멀어보입니다.

 

데모사이트 : http://larsjung.de/h5ai/sample

 

 

마지막으로 Elfinder입니다. 

 

 

제로보드 XE를 통해 접속한 화면입니다.

#장점

1. XE와 연동가능합니다. (메인 사이트와 웹 페이지 상에서 연결 가능합니다.)

2. 속도가 괜찮은 편이고, 깔끔한 디자인입니다.

3. 자체적인 인터페이스를 내장하고 있어서 마우스 우클릭시 브라우저 메뉴가 아닌 전용메뉴를 확인 할 수 있습니다.

 

#단점

1. 회원별로 폴더를 부여하고 접속 설정을 하려면 추가적인 파일 변경이 필요합니다. (나중에 관련 정보를 제공할게요.)

2. 차짓 잘못하면 XE 메인까지 FTP처럼 접속하여, 보안상 문제가 될 수 있다. (추가로 해결가능)

3. XE와 연동을 해야하며, 쉬운설치를 지원하지 않는다.

4. 대표 사이트의 도메인이 만료되어 사이트에 접속을 할 수 없다. (소스 다운로드 불가능..)

 

잘만 만들어 나가면 정말 괜찮을 것 같은 Elfinder입니다. 충격적이게도 원작자의 웹사이트는 도메인 기간이 만료되어 더이상 접근이 불가능 합니다. (앞으로 유저들이 만들어 나가야 할 듯)

 

데모사이트는 도메인이 사라짐으로 관련 페이지는 없습니다. 대신 XE 전용 모듈을 다음번 포스팅에 올리도록 하겠습니다. 그리고, 서버구축용 전용 파일은 나중에 포스팅을 통해서 제공하도록 하겠습니다.

 

이번 시간에는 제가 사용해본 오픈 소스 4종에 대해서 이야기 하였습니다. 다음 번 시간부터 h5ai를 제외한 나머지들의 설치 과정과 설치법에 대해서 포스팅 하도록 하겠습니다.

 

출처: https://studyforus.tistory.com/43 [Study For Us]

 

출처: <https://studyforus.tistory.com/43>

반응형

'오픈소스 활용하기' 카테고리의 다른 글

VirtualBox - NAT 및 Bridge Adapter 개념 및 설정  (0) 2023.11.13
KVM 설치 가이드  (1) 2023.11.13
가상 머신과 Docker  (2) 2023.11.13
Docker란 무엇인가?  (1) 2023.11.13
Zabbix server config 파라메터  (1) 2023.11.09
반응형

여기에 VirtualBox를 설치하였고,

VirtualBox 에 리눅스(Fedora)를 설치하였습니다.

 

한줄요약 : 윈도우에서 VirtualBox를 이용해 리눅스를 돌리고 있음.

위와같이 리눅스를 설치하고 윈도우에서 putty 를 이용해 리눅스에 ssh로 접속하여 작업합니다.

 

쉬운 브리지 어댑터 먼저 썰을 풉니다~

 

1. 브리지 어댑터 (Bridge Adapter)

Virtualbox 에서 Fedora를 실행하기 전에 아래와 같이 네트워크에서 브리지 어댑터를 선택합니다.

(아래 이미지는 리눅스를 실행한 후에 캡쳐를 한 것인데 실행 전에 선택해야합니다.)

 

 

 

이 경우, PC가 공유기로부터 IP를 받는 경우,

리눅스 또한 공유기로부터 IP를 받습니다.

 

윈도우의 IP가 192.168.10.xx 라면, 리눅스의 IP 또한 192.168.10.xx 가 됩니다.

 

브리지 어댑터로 설정하면 아래와 같은 구조라고 생각하면 됩니다.

 

 

문제점 :

위에 언급했듯이 전 윈도우에서 putty 를 이용해 리눅스에 접속하는 걸 선호합니다.

브리지 네트워크로 설정할 경우, 공유기가 없다면? 리눅스가 IP를 할당받지 못해

윈도우에서 리눅스로 접속할 방법이 없더군요.

공유기를 함께 챙기면 되겠지만 그러지 못한 상황이라면...

 

NAT 설정을 통해 이를 극복할 수 있습니다.

 

2. NAT

NAT의 개념은 저도 정확히 이거다 말하기가 애매한데요. 그냥, 경험을 통해 아~ 이렇구나 했습니다.

아니면 댓글로 알려주세요~

 

NAT 설정은 저 위에 Virtualbox 네트워크 설정에서 브리지 어댑터 대신 NAT를 선택하면 됩니다.

 

Virtualbox 를 설치하면 dos 에서 VirtualBox Host-Only Network 를 확인할 수 있습니다.

C:\> ipconfig

 

결론부터 얘기하면, 윈도우에서 리눅스로 접속하고 싶을 때,

위 주소 192.168.56.1 로 접속하여 리눅스로 접속할 수 있습니다.

 

(이 개념 찾는게 제일 힘들었네요. 전 계속 리눅스의 10.0.2.15로 접속하려고 시도했거든요.

그런데 막상 검색해도 쉽게 안나오던 정보였습니다.)

 

이에 몇가지 설정이 필요합니다.

 

VirtualBox 에서 NAT 로 설정한 후, 리눅스를 설치하고 ifconfig 하면

아래와 같이 10.0.x.15 주소를 확인할 수 있습니다.

 

 

 

이 주소는 NAT 설정 후 나타나는 주소입니다.

 

저 위에 윈도우에서 리눅스로 접속하기 위해 192.168.56.1 IP 를 사용한다고 했는데요.

이 192.168.56.1 이 리눅스의 10.0.2.15 IP와 연결되게 됩니다.

 

그러므로 윈도우에서 10.0.2.15 192.168.56.1 로 접속을 시도하면 리눅스로 연결되게 됩니다.

 

이제 NAT 설정 시, 그림을 다시 그려보면 아래와 같이 됩니다.

(이 개념은 지극히 개인적인... 고로 틀렸을지도 모릅니다. ㅜ.ㅠ )

 

브리지 어댑터의 경우, linux 가 바로 공유기에 연결된 개념이었는데

NAT의 경우, 위와 같은 구조이기에 공유기랑 상관없는 구조입니다.

공유기가 없는 환경에서 리눅스에 접속할 필요가 있을 경우, NAT를 사용하면 되겠지요~

 

이제 마지막 과정입니다.

192.168.56.1 과 10.0.2.15 사이에 포트포워딩을 해 주어야 합니다.

 

아래와 같이 포트포워딩을 선택합니다.

 

 

 

그러면 아래와 같은 그림이 나옵니다.

아래 제가 설정한 경우입니다.

 

이미지 오른쪽의 + 버튼을 클릭하여 규칙을 추가하시면 됩니다.

 

 

 

전 putty 를 이용해 리눅스에 접속하여 작업하기에 22번 포트를 포워딩했습니다.

그리고 리눅스에서 인터넷을 사용하기 위해 80번 포트를 포워딩했습니다.

 

기타 환경에 맞게 추가하여 주시면 됩니다.

 

위와 같이 설정한 후에 putty에서 192.168.56.1 로 접속시도하면 리눅스로 연결됩니다.

 

출처: <http://web3.c2.cyworld.com/myhompy/board/retrieveBoard.php?home_id=a1099643&lmenuSeq=194400&smenuSeq=152571&postSeq=7341859&referrer=http%3A%2F%2Fsearch.naver.com%2Fsearch.naver%3Fwhere%3Dnexearch%26query%3Dvirtualbox%2Bnat%2B%25EC%2584%25A4%25EC%25A0%2595%26sm%3Dtop_hty%26fbm%3D1%26ie%3Dutf8>

 

반응형

'오픈소스 활용하기' 카테고리의 다른 글

대표적인 개인 서버 전용 웹 스토리지 비교  (2) 2023.11.27
KVM 설치 가이드  (1) 2023.11.13
가상 머신과 Docker  (2) 2023.11.13
Docker란 무엇인가?  (1) 2023.11.13
Zabbix server config 파라메터  (1) 2023.11.09
반응형

본 설치 가이드는 공개SW 역량프라자에서 클라우드 컴퓨팅 기반 기술 중 가상화(Virtualization)에 대한 테스트 결과 보고서 외에 테스트 환경에 대한 이해를 돕고자 작성되었습니다.

모든 테스트 환경 구성에 대한 내용을 포함되어 있지 않으며, 주의가 필요하거나 참고해야 할 내용을 기반으로 작성되었습니다.

1. 설치환경

□ KVM 환경

모듈 Version
KVM 2.6.32 (Linux Kernel)
qemu-kvm 0.12.1
Virt-Manager 0.9.0.7

□ Stack 환경

구성 Host OS Guest OS
A Stack Ubuntu 10.04 Desktop LTS (64bit) CentOS 6.2 Windows 7
B Stack CentOS 6.2 (64bit) Ubuntu 12.04 Windows 7

□ HW 환경

제조사 모델명 CPU MEM Disk NIC
IBM X3850M2 Intel Xeon(R)CPU 2.40GHz * 4 8GB 320G Gigabit 1Port

 

2. CentOS 기반 KVM 설치

□ CentOS 설치 및 환경

o 패키지 선택

CentOS 설치 과정 중 아래의 그림과 같이 서버 용도에 맞는 패키지를 선택할 수 있는데 이번 테스트의 경우 가상화 관리 도구(Virt-Manager)이 GUI(Graphic User Interface)로 구성되어 Desktop을 선택하여 설치하였으며, 나머지 진행은 기본 설정을 기준으로 진행하였음

 

□ CentOS 설정

o SELinux 해제

vi /etc/selinux/config

# This file controls the state of SELinux on the system.

# SELINUX= can take one of these three values:

#     enforcing - SELinux security policy is enforced.

#     permissive - SELinux prints warnings instead of enforcing.

#     disabled - No SELinux policy is loaded.

#SELINUX=enforcing

# 아래의 내용으로 변경함

SELINUX=disabled

# SELINUXTYPE= can take one of these two values:

#     targeted - Targeted processes are protected,

#     mls - Multi Level Security protection.

SELINUXTYPE=targeted


reboot;

□ 가상화 지원 여부 확인

최근에 출시하는 Intel(VT-x), AMD(AMD-v) 계열의 프로세서는 대부분 하드웨어 가상화를 지원하며, 지원되지 않은 CPU일 경우 가상화를 원활히 사용할 수 없음

# intel cpu : vmx(Intel-VT), AMD cpu : svm(AMD-V)

egrep '(vmx|svm)' --color=always /proc/cpuinfo

o 아래 결과 중 빨간색(vmx)로 표시되면, CPU가 가상화 지원

 

□ KVM 환경 구성

o 참고사항

CentOS 6.2 버전의 경우 커널에 KVM이 기본적으로 포함되어 배포되어 별도의 설치가 필요 없이 사용 가능함

# KVM 설치 여부 확인

lsmod | grep kvm

#아래와 같이 표시되면 KVM이 설치되어 있음

kvm_intel      50380 0

kvm            305081 1 kvm_intel

o KVM 관련 패키지 설치

yum groupinstall "Virtualization*"

o KVM 관련 패키지 설치

- qemu-kvm

- qemu-img

- libvirt Library

- virt-manager

o 설치 확인

- 프로그램->시스템도구->가상 머신 관리자 선택

 

o 설치 확인

- 가상 머신 관리자(Virt-Manager) 구동 확인

※ 실제 처음 설치할 경우 등록된 가상 머신은 없음

 

3. Ubuntu 기반 KVM 설치

□ Ubuntu 설치

가상화 관리 도구(Virt-Manager)를 활용하기 위하여, Ubuntu 10.04 Desktop LTS 버전을 설치하였으며, 기본 설치 과정을 준수하여 설치하였음

 

□ 가상화 지원 여부 확인

최근에 출시하는 Intel(VT-x), AMD(AMD-v) 계열의 프로세서는 대부분 하드웨어 가상화를 지원하며, 지원되지 않은 CPU일 경우 가상화를 원활히 사용할 수 없음

# intel cpu : vmx(Intel-VT), AMD cpu : svm(AMD-V)

egrep '(vmx|svm)' --color=always /proc/cpuinfo

o 아래 결과 중 빨간색(vmx)로 표시되면, CPU가 가상화 지원

 

□ KVM 환경 구성

o KVM관련 패키지를 설치

$ sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

o KVM관련 패키지를 설치

$ virsh -c qemu:///system list

# 아래와 같이 나타나면 정상적으로 설치됨

Id Name                 State

---------------------------------------------

- 위와 같이 나오지 않고 아래의 내용과 같이 에러가 발생할 경우

$ virsh -c qemu:///system list

libvir: Remote error : Permission denied

error: failed to connect to the hypervisor

$

/var/run/libvirt/libvirt-sock 파일의 접근 권한 확인 필요

o 가상화 관리 도구(virt-manager) 설치

$ sudo apt-get install virt-manager

o 설치 확인

- Search 입력창에 virtual machine manager 입력

- 가상 머신 관리자(Virt-Manager) 구동 확인

※ 실제 처음 설치할 경우 등록된 가상 머신은 없음

 

원본 위치 <http://www.oss.kr/index.php?comment_srl=7728&mid=oss_repository9&order_type=desc&sort_index=readed_count&listStyle=gallery&page=4&document_srl=98713>

반응형
반응형


가상 머신과 Docker#

Docker는 지금까지 사용해왔던 VMware, Microsoft Hyper-V(Virtual PC), Xen 등의 같은 가상 머신과 비슷합니다.

가상 머신에 리눅스를 설치한 뒤 각종 서버와 DB를 설치하고, 개발한 어플리케이션이나 웹사이트를 실행했습니다. 이렇게 세팅한 가상 머신 이미지를 여러 서버에 복사해서 실행하면 이미지 하나로 서버를 계속 만들어낼 수 있었습니다.

보통 가상 머신 서버를 독자적으로 운영하거나, 서비스 형태로 제공되는 AWS, Microsoft Azure를 사용하기도 합니다.


가상 머신#

 

출처: http://www.docker.com/whatisdocker/

가상 머신은 편하긴 하지만 성능이 좋지 못한 것이 단점이었습니다. 지금까지 CPU에 가상화를 위한 기능들이 많이 추가되었지만 아직도 가상 머신은 리얼 머신에 비해 속도가 느립니다.

느린 속도를 개선하기 위해 반가상화(Paravirtualization) 방식이 개발되었고, 현재 널리 쓰이고 있습니다.

그림에서 보는 것과 같이 가상 머신이기 때문에 항상 Guest OS를 설치해야 합니다. 그래서 이미지안에 OS가 포함되기 때문에 이미지 용량이 커집니다.

아무리 네트워크와 인터넷 속도가 빨라졌다 하더라도 가상화 이미지를 주고받는 것은 꽤 부담스럽습니다.

가상 머신은 OS를 가상화하는데 초점이 맞춰져 있습니다. 그래서 이미지를 생성하는 기능만 가지고 있을 뿐 배포와 관리 기능이 부족합니다(VMware의 비싼 제품을 사용해도 되지만…).


Docker#

 

 

출처: http://www.docker.com/whatisdocker/

Docker는 반가상화보다 좀더 경량화된 방식입니다. 그림에서 보는 것과 같이 Geust OS를 설치하지 않습니다. Docker 이미지에 서버 운영에 필요한 프로그램과 라이브러리만 격리해서 설치할 수 있고, OS 자원은 호스트와 공유합니다. 이렇게 되면서 이미지 용량이 크게 줄어들었습니다. 그리고 가상화 레이어가 없기 때문에 파일시스템, 네트워크 속도도 가상 머신에 비해 월등히 빠릅니다(호스트와 거의 동일한 속도).

최근까지 Docker lxc(Linux Container) 드라이버 기반으로 동작했지만 0.9x 버전부터는 libcontainer를 사용합니다.

Docker는 가상 머신과는 달리 이미지 생성과 배포에 특화된 기능을 제공합니다.

Git에서 소스를 관리하는 것처럼 이미지 버전 관리 기능을 제공합니다. 그리고 중앙 관리를 위해 저장소에 이미지를 올리고, 받을 수 있습니다(Push/Pull). 게다가 GitHub처럼 Docker 이미지를 공유할 수 있는 Docker Hub도 제공합니다(GitHub처럼 개인 저장소도 제공합니다).

다양한 API를 제공하기 때문에 원하는 만큼 자동화를 할 수 있어 개발과 서버 운영에 매우 유용합니다.


리눅스 컨테이너#

리눅스는 운영체제 레벨에서 가상화를 제공했습니다. OS를 통째로 가상화하는 것이 아닌 리눅스 커널 레벨에서 제공하는 일종의 격리(Isolate)된 가상 공간입니다.

OS가 설치되지 않기 때문에 가상 머신이라고 하지 않고, 컨테이너라고 부릅니다.

리눅스 컨테이너는 격리된 공간만 제공할 뿐 개발 및 서버 운영에 필요한 부가기능이 부족했습니다. Docker는 리눅스 컨테이너를 기반으로 하여 편리하게 이미지를 관리하고 배포할 수 있도록 해줍니다.


Docker 이미지와 컨테이너#

Docker는 이미지와 컨테이너라는 개념이 있습니다.

이미지는 필요한 프로그램과 라이브러리, 소스를 설치한 뒤 파일로 만든 것입니다. 이 이미지를 저장소에 올리고, 받을 수 있습니다.

컨테이너는 이미지를 실행한 상태입니다. 이미지로 여러개의 컨테이너를 만들 수 있습니다. 운영체제로 보면 이미지는 실행파일이고 컨테이너는 프로세스입니다.

Docker는 특정 실행파일 또는 스크립트를 위한 실행 환경이라 보면 됩니다. 리눅스/유닉스 계열은 파일 실행에 필요한 모든 구성요소가 잘게 쪼개어져 있습니다. 시스템 구조가 단순해지고 명확해지는 장점이 있지만 의존성 관계를 해결하기가 어려워지는 단점이 있습니다. 그래서 리눅스 배포판 별로 미리 컴파일된 패키지(rpm, deb )라는 시스템이 나왔습니다. 하지만 서버를 실행할 때마다 일일이 소스를 컴파일하거나 패키지를 설치하고, 설정하려면 상당히 귀찮습니다.

서버가 한 두대라면 큰 어려움이 없겠지만 클라우드 환경에서는 서버를 몇 십, 몇 백개를 생성해야 합니다. 서버 구성을 미리 해놓은 Docker 이미지를 사용하면 실행할 서버가 몇개가 되든 손쉽게 해결할 수 있습니다.


설치하기#

이제 Docker를 설치해보겠습니다. Docker는 소스를 컴파일해서 설치하려면 준비해야할 것이 많습니다. 따라서 이 문서에서는 자동 설치 스크립트와 각 리눅스 배포판의 패키지로 설치하는 방법을 설명하겠습니다.


리눅스#

자동 설치 스크립트#

Docker는 리눅스 배포판 종류를 자동으로 인식하여 패키지를 설치해주는 스크립트를 제공합니다.

$ sudo wget -qO- https://get.docker.com/ | sh

get.docker.com 스크립트로 Docker를 설치하면 hello-world 이미지도 자동으로 설치됩니다.

hello-world 이미지는 사용하지 않을 것이므로 모두 삭제합니다.

$ sudo docker rm `sudo docker ps -aq`

$ sudo docker rmi hello-world

우분투#

자동 설치 스크립트를 사용하지 않고 우분투에서 패키지로 직접 설치하는 방법입니다.

우분투 14.04 LTS 64비트를 기준으로 하겠습니다.

$ sudo apt-get update

$ sudo apt-get install docker.io

$ sudo ln -sf /usr/bin/docker.io /usr/local/bin/docker

/usr/bin/docker.io 실행파일을 /usr/local/bin/docker로 링크해서 사용합니다.

RedHat Enterprise Linux, CentOS#

자동 설치 스크립트를 사용하지 않고, 레드햇 엔터프라이즈 리눅스(RHEL) CentOS에서 패키지로 직접 설치하는 방법입니다. RHEL CentOS 패키지 저장소에는 docker-io가 없으므로 EPEL(Fedora Extra Packages For Enterprise Linux) 저장소를 사용할 수 있도록 설정합니다.

CentOS 6

$ sudo yum install http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

$ sudo yum install docker-io  

AWS EC2에 설치되는 Amazon Linux(CentOS 기반) EPEL 저장소를 바로 사용할 수 있으므로 epel-release-6-8.noarch.rpm은 설치하지 않아도 됩니다.

CentOS 7에서는 docker 패키지를 설치하면 됩니다.

CentOS 7

$ sudo yum install docker

Docker 서비스 실행

$ sudo service docker start

부팅했을 때 자동으로 실행하기

$ sudo chkconfig docker on


Mac OS X#

맥에서는 Boot2Docker를 이용하여 Docker를 사용할 수 있습니다.

https://github.com/boot2docker/osx-installer/releases에서 Boot2Docker-1.x.x.pkg를 받은 뒤 설치합니다.

설치는 특별한 것이 없으므로 따로 설명하지 않겠습니다(내부적으로 VirtualBox가 함께 설치됩니다).

설치가 끝난 뒤에 응용 프로그램(Applications)에서 boot2docker를 실행합니다.

잠시 기다리면 자동으로 boot2docker.iso를 이용하여 가상 머신이 생성되고, 가상 머신에 접속됩니다.


윈도우#

윈도우에서는 Boot2Docker를 이용하여 Docker를 사용할 수 있습니다.

https://github.com/boot2docker/windows-installer/releases에서 docker-install.exe를 받은 뒤 설치합니다.

  • VirtualBox를 설치하지 않았다면 VirtualBox에 체크합니다.
  • 윈도우용 Git을 설치하지 않았다면 MSYS-git UNIX tools에 체크합니다.

설치가 끝난 뒤에 바탕 화면에 생성된 Boot2Docker Start 을 실행합니다. 만약 실행 파일 선택 창이 뜨면 Git Bashsh.exe를 선택합니다.

잠시 기다리면 자동으로 boot2docker.iso를 이용하여 가상 머신이 생성되고, 가상 머신에 접속됩니다.


사용하기#

Docker의 명령은 docker rundocker push와 같이 docker <명령> 형식입니다. 그리고 항상 root 권한으로 실행해야 합니다.

먼저 Docker의 기본적인 사용법을 알아보기 위해 Docker Hub에서 제공하는 이미지를 받아서 실행해보겠습니다.


search#

Docker Docker Hub를 통해 이미지를 공유하는 생태계가 구축되어 있습니다search 명령으로 Docker Hub에서 이미지를 검색할 수 있습니다.

$ sudo docker search ubuntu

NAME                          DESCRIPTION                                     STARS     OFFICIAL   AUTOMATED

ubuntu                        Official Ubuntu base image                      383

stackbrew/ubuntu              Official Ubuntu base image                      40

crashsystems/gitlab-docker    A trusted, regularly updated build of GitL...   19                   [OK]

dockerfile/ubuntu             Trusted Ubuntu (http://www.ubuntu.com/) Bu...   15                   [OK]

ubuntu-upstart                Upstart is an event-based replacement for ...   7

cmfatih/phantomjs             PhantomJS [ phantomjs 1.9.7, casperjs 1.1....   5                    [OK]

dockerfile/ubuntu-desktop     Trusted Ubuntu Desktop (LXDE) (http://lxde...   5                    [OK]

lukasz/docker-scala           Dockerfile for installing Scala 2.10.3, Ja...   5                    [OK]

litaio/ruby                   Ubuntu 14.04 with Ruby 2.1.2 compiled from...   5                    [OK]

엄청나게 많은 이미지가 검색될 것입니다. 보통 ubuntu, centos, redis OS나 프로그램 이름을 가진 이미지가 공식 이미지입니다. 나머지는 사용자들이 만들어 공개한 이미지입니다.

Docker Hub에서 이미지를 검색한 뒤 해당 이미지의 Tags 탭을 보면 현재 사용할 수 있는 이미지의 버전을 볼 수 있습니다.

Official Ubuntu base image Tags


pull#

우분투 이미지를 받아보겠습니다.

$ sudo docker pull ubuntu:latest

docker pull <이미지 이름>:<태그> 형식입니다. latest를 설정하면 최신 버전을 받습니다ubuntu:14.04,ubuntu:12.10처럼 태그를 지정해 줄 수도 있습니다.

이미지 이름에서 pyrasis/ubuntu처럼 / 앞에 사용자명을 지정하면 Docker Hub에서 해당 사용자가 올린 이미지를 받습니다. 공식 이미지는 사용자명이 붙지 않습니다.

 참고

호스트에 설치된 리눅스 배포판과 Docker 이미지의 배포판의 종류가 달라도 됩니다. CentOS 위에서 우분투 컨테이너를 실행할 수 있습니다.


images#

이제 받은 이미지의 목록을 출력해보겠습니다.

$ sudo docker images

REPOSITORY          TAG                 IMAGE ID            CREATED                  VIRTUAL SIZE

ubuntu              latest              e54ca5efa2e9        Less than a second ago   276.1 MB

docker images는 모든 이미지 목록을 출력합니다docker images ubuntu처럼 이미지 이름을 설정하면 이름은 같지만태그가 다른 이미지가 출력됩니다.


run#

이미지를 컨테이너로 생성한 뒤 Bash Shell을 실행해보겠습니다.

$ sudo docker run -i -t --name hello ubuntu /bin/bash

docker run <옵션> <이미지 이름> <실행할 파일> 형식입니다. 여기서는 ubunbu 이미지를 컨테이너로 생성한 뒤 ubuntu 이미지 안의 /bin/bash를 실행합니다. 이미지 이름 대신 이미지 ID를 사용해도 됩니다.

-i(interactive), -t(Pseudo-tty) 옵션을 사용하면 실행된 Bash Shell에 입력 및 출력을 할 수 있습니다. 그리고 --name옵션으로 컨테이너의 이름을 지정할 수 있습니다. 이름을 지정하지 않으면 Docker가 자동으로 이름을 생성하여 지정합니다.

이제 호스트 OS와 완전히 격리된 공간이 생성되었습니다cdls 명령으로 컨테이너 내부를 한번 둘러봅니다. 호스트 OS와는 다르다는 것을 알 수 있습니다exit를 입력하여 Bash Shell에서 빠져나옵니다. 우분투 이미지에서 /bin/bash 실행 파일을 직접 실행했기 때문에 여기서 빠져나오면 컨테이너가 정지(stop)됩니다.

 참고

CentOS에서 아래와 같은 에러가 발생하면

unable to remount sys readonly: unable to mount sys as readonly max retries reached

/etc/sysconfig/docker 파일에서 아래와 같이 --exec-driver=lxc를 추가합니다.

/etc/sysconfig/docker

# /etc/sysconfig/docker

#

# Other arguments to pass to the docker daemon process

# These will be parsed by the sysv initscript and appended

# to the arguments list passed to docker -d

 

other_args="--selinux-enabled --exec-driver=lxc"

Docker 서비스를 재시작합니다.

$ sudo service docker restart


ps#

아래 명령을 입력하여 모든 컨테이너 목록을 출력합니다.

$ sudo docker ps -a

CONTAINER ID  IMAGE          COMMAND    CREATED        STATUS                             PORTS  NAMES

6338ce52d07c  ubuntu:latest  /bin/bash  4 seconds ago  Exited (0) Less than a second ago         hello

docker ps 형식입니다-a 옵션을 사용하면 정지된 컨테이너까지 모두 출력하고, 옵션을 사용하지 않으면 실행되고 있는 컨테이너만 출력합니다.

우리는 앞에서 컨테이너를 생성할 때 이름을 hello로 지정했으므로 컨테이너 목록에서도 hello로 표시됩니다.


start#

방금 정지한 컨테이너를 다시금 시작해보겠습니다.

$ sudo docker start hello

docker start <컨테이너 이름> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.

아래 명령을 입력하여 실행된 컨테이너 목록을 출력합니다.

$ sudo docker ps

CONTAINER ID  IMAGE          COMMAND    CREATED         STATUS                        PORTS  NAMES

6338ce52d07c  ubuntu:latest  /bin/bash  15 minutes ago  Up 3 seconds                         hello

hello 컨테이너가 시작되었습니다.


restart#

OS 재부팅처럼 컨테이너를 재시작해보겠습니다.

$ sudo docker restart hello

docker restart <컨테이너 이름> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.


attach#

이제 시작한 컨테이너에 접속해보겠습니다. 아래 명령을 실행한 뒤 엔터를 한번 더 입력하면 Bash Shell이 표시됩니다.

$ sudo docker attach hello

root@6338ce52d07c:/#

docker attach <컨테이너 이름> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.

우리는 /bin/bash를 실행했기 때문에 명령을 자유롭게 입력할 수 있지만, DB나 서버 어플리케이션을 실행하면 입력은 할 수 없고 출력만 보게 됩니다.

Bash Shell에서 exit 또는 Ctrl+D를 입력하면 컨테이너가 정지됩니다. 여기서는 Ctrl+PCtrl+Q를 차례대로 입력하여 컨테이너를 정지하지 않고, 컨테이너에서 빠져나옵니다.


exec#

현재 컨테이너가 /bin/bash로 실행된 상태입니다. 이번에는 /bin/bash를 통하지 않고 외부에서 컨테이너 안의 명령을 실행해보겠습니다.

$ docker exec hello echo "Hello World"

Hello World

docker exec <컨테이너 이름> <명령> <매개 변수> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다. 컨테이너가 실행되고 있는 상태에서만 사용할 수 있으며 정지된 상태에서는 사용할 수 없습니다.

컨테이너 안의 echo 명령을 실행하고 매개 변수로 “Hello World”를 지정했기 때문에 Hello World가 출력됩니다.docker exec 명령은 이미 실행된 컨테이너에 apt-getyum 명령으로 패키지를 설치하거나, 각종 데몬을 실행할 때 활용할 수 있습니다.


stop#

이번에는 컨테이너를 정지해보겠습니다. 먼저 실행된 컨테이너 목록을 출력합니다.

$ sudo docker ps

CONTAINER ID  IMAGE         COMMAND    CREATED         STATUS                       PORTS  NAMES

6338ce52d07c  ubuntu:latest /bin/bash  51 minutes ago  Up 2 minutes                        hello

아래 명령으로 컨테이너를 정지합니다.

$ sudo docker stop hello

docker stop <컨테이너 이름> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.

실행된 컨테이너 목록을 출력합니다.

$ sudo docker ps

CONTAINER ID  IMAGE         COMMAND    CREATED         STATUS                       PORTS  NAMES

hello 컨테이너를 정지했기 때문에 아무것도 안나옵니다.


rm#

생성된 컨테이너를 삭제해보겠습니다.

$ sudo docker rm hello

docker rm <컨테이너 이름> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.

모든 컨테이너 목록을 출력합니다.

$ sudo docker ps -a

CONTAINER ID  IMAGE         COMMAND    CREATED         STATUS                       PORTS  NAMES

hello 컨테이너를 삭제했기 때문에 아무것도 안 나옵니다.


rmi#

이번에는 이미지를 삭제해보겠습니다.

$ sudo docker rmi ubuntu:latest

docker rmi <이미지 이름>:<태그> 형식입니다. 이미지 이름 대신 이미지 ID를 사용해도 됩니다docker rmi ubuntu처럼 이미지 이름만 지정하면 태그는 다르지만 ubuntu 이름을 가진 모든 이미지가 삭제됩니다.

이미지 목록을 출력합니다.

$ sudo docker images

REPOSITORY          TAG                 IMAGE ID            CREATED                  VIRTUAL SIZE

ubuntu 이미지를 삭제했기 때문에 아무것도 안 나옵니다.


이미지 생성하기#

기본적인 이미지와 컨테이너 사용 방법을 알아보았으니 이번에는 이미지를 생성해보겠습니다.


Dockerfile#

Dockerfile Docker 이미지 설정 파일입니다. Dockerfile에 설정된 내용대로 이미지를 생성합니다.

먼저 example 디렉터리를 생성한 뒤 example 디렉터리로 이동합니다.

~$ mkdir example

~$ cd example

아래 내용을 Dockerfile로 저장합니다.

example/Dockerfile

FROM ubuntu:14.04

MAINTAINER Foo Bar <foo@bar.com>

 

RUN apt-get update

RUN apt-get install -y nginx

RUN echo "\ndaemon off;" >> /etc/nginx/nginx.conf

RUN chown -R www-data:www-data /var/lib/nginx

 

VOLUME ["/data", "/etc/nginx/site-enabled", "/var/log/nginx"]

 

WORKDIR /etc/nginx

 

CMD ["nginx"]

 

EXPOSE 80

EXPOSE 443

우분투 14.04를 기반으로 nginx 서버를 설치한 Docker 이미지를 생성하는 예제입니다.

  • FROM: 어떤 이미지를 기반으로 할지 설정합니다. Docker 이미지는 기존에 만들어진 이미지를 기반으로 생성합니다<이미지 이름>:<태그> 형식으로 설정합니다.
  • MAINTAINER: 메인테이너 정보입니다.
  • RUN: Shell 스크립트 혹은 명령을 실행합니다.
  • VOLUME: 호스트와 공유할 디렉터리 목록입니다docker run 명령에서 -v 옵션으로 설정할 수 있습니다. )-v /root/data:/data 호스트의 /root/data 디렉터리를 Docker 컨테이너의 /data 디렉터리에 연결합니다.
  • CMD: 컨테이너가 시작되었을 때 실행할 실행 파일 또는 스크립트입니다.
  • WORKDIR: CMD에서 설정한 실행 파일이 실행될 디렉터리입니다.
  • EXPOSE: 호스트와 연결할 포트 번호입니다.


build#

Dockerfile을 작성하였으면 이미지를 생성합니다. Dockerfile이 저장된 example 디렉터리에서 아래 명령을 실행합니다.

$ sudo docker build --tag hello:0.1 .

docker build <옵션> <Dockerfile 경로> 형식입니다--tag 옵션으로 이미지 이름과 태그를 설정할 수 있습니다. 이미지 이름만 설정하면 태그는 latest로 설정됩니다.

잠시 기다리면 이미지 파일이 생성됩니다. 이미지 목록을 출력합니다.

$ sudo docker images

REPOSITORY          TAG                 IMAGE ID            CREATED                  VIRTUAL SIZE

ubuntu              14.04               e54ca5efa2e9        Less than a second ago   276.1 MB

ubuntu              latest              e54ca5efa2e9        Less than a second ago   276.1 MB

hello               0.1                 2031ee0736e8        9 minutes ago            298.4 MB

hello:0.1 이미지가 생성되었습니다. 이제 실행을 해봅니다.

$ sudo docker run --name hello-nginx -d -p 80:80 -v /root/data:/data hello:0.1

-d 옵션은 컨테이너를 백그라운드로 실행합니다.

-p 80:80 옵션으로 호스트의 80번 포트 컨테이너의 80번 포트를 연결하고 외부에 노출합니다. 이렇게 설정한 뒤http://<호스트 IP>:80에 접속하면 컨테이너의 80번 포트로 접속됩니다.

-v /root/data:/data 옵션으로 호스트의 /root/data 디렉터리를 컨테이너의 /data 디렉터리에 연결합니다. /root/data 디렉터리에 파일을 넣으면 컨테이너에서 해당 파일을 읽을 수 있습니다.

실행된 컨테이너 목록을 출력합니다.

$ sudo docker ps

CONTAINER ID  IMAGE      COMMAND  CREATED         STATUS         PORTS                        NAMES

3c06a0bebab6  hello:0.1  nginx    10 minutes ago  Up 10 minutes  443/tcp, 0.0.0.0:80->80/tcp  hello-nginx

hello-nginx 컨테이너가 실행되었습니다.

웹 브라우저를 실행하고http://<호스트 IP>:80으로 접속합니다Welcome to nginx! 페이지가 표시될 것입니다.

 Mac OS X, Windows에서 Boot2Docker를 사용한다면?

Boot2Docker는 가상 머신 안에 도커를 실행한 상태이기 때문에 호스트 IP로는 nginx에 접속할 수 없습니다. 따라서 다음 명령을 실행하여 Boot2Docker의 가상 머신 IP를 알아냅니다(Windows에서는 Git Bash를 실행한 뒤 명령을 실행합니다).

$ boot2docker ip

The VM's Host only interface IP address is: 192.168.59.103

웹 브라우저를 실행하고http://<Boot2Docker VM IP>:80으로 접속합니다Welcome to nginx! 페이지가 표시될 것입니다.


기타 명령#


history#

앞에서 생성한 hello:0.1 이미지의 히스토리를 조회해보겠습니다.

$ sudo docker history hello:0.1

IMAGE               CREATED                  CREATED BY                                      SIZE

e54ca5efa2e9        Less than a second ago   /bin/sh -c apt-get update && apt-get install    8 B

6c37f792ddac        Less than a second ago   /bin/sh -c apt-get update && apt-get install    83.43 MB

83ff768040a0        Less than a second ago   /bin/sh -c sed -i 's/^#\s*\(deb.*universe\)$/   1.903 kB

2f4b4d6a4a06        Less than a second ago   /bin/sh -c echo '#!/bin/sh' > /usr/sbin/polic   194.5 kB

d7ac5e4f1812        Less than a second ago   /bin/sh -c #(nop) ADD file:adc47d03da6bb2418e   192.5 MB

2031ee0736e8        21 minutes ago           /bin/sh -c #(nop) EXPOSE map[443/tcp:{}]        0 B

aa7183744747        21 minutes ago           /bin/sh -c #(nop) EXPOSE map[80/tcp:{}]         0 B

747f1cc74b12        21 minutes ago           /bin/sh -c #(nop) CMD [nginx]                   0 B

6103d971baec        21 minutes ago           /bin/sh -c #(nop) WORKDIR /etc/nginx            0 B

ba6879ea73b0        21 minutes ago           /bin/sh -c #(nop) VOLUME ["/data", "/etc/ngin   0 B

9bed2a790c60        21 minutes ago           /bin/sh -c chown -R www-data:www-data /var/li   7 B

d51d99711779        21 minutes ago           /bin/sh -c echo "\ndaemon off;" >> /etc/nginx   1.621 kB

39c72a05ccf4        21 minutes ago           /bin/sh -c apt-get install -y nginx             18.07 MB

c7bc6a6c45a2        25 minutes ago           /bin/sh -c apt-get update                       4.206 MB

23f17c89799a        25 minutes ago           /bin/sh -c #(nop) MAINTAINER Foo Bar <foo@bar   0 B

511136ea3c5a        11 months ago                                                            0 B

docker history <이미지 이름>:<태그> 형식입니다. 이미지 이름 대신 이미지 ID를 사용해도 됩니다.

이렇게 Dockefile에 설정한 대로 히스토리가 생성됩니다.


cp#

hello-nginx 컨테이너에서 파일을 꺼내보겠습니다.

$ sudo docker cp hello-nginx:/etc/nginx/nginx.conf ./

docker cp <컨테이너 이름>:<경로> <호스트 경로> 형식입니다.

현재 디렉터리에 nginx.conf 파일이 복사되었습니다.


commit#

docker commit 명령은 컨테이너의 변경 사항을 이미지 파일로 생성합니다.

hello-nginx 컨테이너 안의 파일 내용이 바뀌었다고 치고, 컨테이너를 이미지 파일로 생성해보겠습니다.

$ sudo docker commit -a "Foo Bar <foo@bar.com>" -m "add hello.txt" hello-nginx hello:0.2

docker commit <옵션> <컨테이너 이름> <이미지 이름>:<태그> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.

-a "Foo Bar <foo@bar.com>" -m "add hello.txt" 옵션으로 커밋한 사용자와 로그 메시지를 설정합니다hello-nginx 컨테이너를 hello:0.2 이미지로 생성합니다.

이미지 목록을 출력합니다.

$ sudo docker images

REPOSITORY          TAG                 IMAGE ID            CREATED                  VIRTUAL SIZE

ubuntu              14.04               e54ca5efa2e9        Less than a second ago   276.1 MB

ubuntu              latest              e54ca5efa2e9        Less than a second ago   276.1 MB

hello               0.2                 d2e8c352b303        About a minute ago       298.4 MB

hello               0.1                 2031ee0736e8        44 minutes ago           298.4 MB

hello:0.2 이미지가 생성되었습니다.


diff#

docker diff 명령은 컨테이너가 실행되면서 변경된 파일 목록을 출력합니다. 비교 기준은 컨테이너를 생성한 이미지 내용입니다.

$ sudo docker diff hello-nginx

A /data

C /run

A /run/nginx.pid

C /var/lib/nginx

A /var/lib/nginx/body

A /var/lib/nginx/fastcgi

A /var/lib/nginx/proxy

A /var/lib/nginx/scgi

A /var/lib/nginx/uwsgi

C /etc/nginx

A /etc/nginx/site-enabled

C /dev

C /dev/kmsg

docker diff <컨테이너 이름> 형식입니다. 컨테이너 이름 대신 컨테이너 ID를 사용해도 됩니다.

A는 추가된 파일C는 변경된 파일D는 삭제된 파일입니다.


inspect#

docker inspect 명령은 이미지와 컨테이너의 세부 정보를 출력합니다.

$ sudo docker inspect hello-nginx

[{

    "Args": [],

    "Config": {

        "AttachStderr": false,

        "AttachStdin": false,

        "AttachStdout": false,

        "Cmd": [

            "nginx"

        ],

        "CpuShares": 0,

        "Cpuset": "",

        "Domainname": "",

        "Entrypoint": null,

        "Env": [

            "HOME=/",

            "PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"

        ],

        "ExposedPorts": {

            "443/tcp": {},

            "80/tcp": {}

        },

        "Hostname": "d4369f661b0a",

        "Image": "hello:0.1",

        ... 생략 ...

    },

    "Name": "/hello-nginx",

        "NetworkSettings": {

        "Bridge": "docker0",

        "Gateway": "172.17.42.1",

        "IPAddress": "172.17.0.40",

        "IPPrefixLen": 16,

        "PortMapping": null,

        "Ports": {

            "443/tcp": null,

            "80/tcp": [

                {

                    "HostIp": "0.0.0.0",

                    "HostPort": "80"

                }

            ]

        }

    },

    "Path": "nginx",

    "ProcessLabel": "",

    "ResolvConfPath": "/etc/resolv.conf",

    "State": {

        "ExitCode": 0,

        "FinishedAt": "0001-01-01T00:00:00Z",

        "Paused": false,

        "Pid": 19804,

        "Running": true,

        "StartedAt": "2014-06-03T22:25:42.838118718Z"

    },

    ... 생략 ...

}]

docker inspect <이미지 또는 컨테이너 이름> 형식입니다. 이미지, 컨테이너 이름 대신 이미지 ID, 컨테이너 ID를 사용해도 됩니다.


컨테이너 연결하기#

웹 서버 컨테이너와 DB 컨테이너가 있을 때 웹 서버 컨테이너에서 DB 컨테이너에 접근할 수 있어야 합니다. 이 때에는docker run 명령에서 --link 옵션을 사용하여 컨테이너를 연결합니다.

먼저 DB 이미지를 컨테이너로 실행합니다. 이번에는 MongoDB를 사용해보겠습니다.

$ sudo docker run --name db -d mongo

DB 컨테이너 이름은 db로 설정하였습니다.

이제 web 컨테이너를 생성하면서 db 컨테이너와 연결합니다. 웹 서버로 사용할 컨테이너는 nginx 이미지로 생성하겠습니다.

$ sudo docker run --name web -d -p 80:80 --link db:db nginx

--link <컨테이너 이름>:<별칭> 형식입니다.

컨테이너 목록을 출력합니다.

$ sudo docker ps

CONTAINER ID  IMAGE         COMMAND               CREATED      STATUS        PORTS               NAMES

3971618834cd  nginx:latest  nginx                 About a min  Up About a m  0.0.0.0:80->80/tcp  web

8d4031106c57  mongo:2.6     /usr/src/mongo/docke  4 minutes a  Up 4 minutes  27017/tcp           db,web/db

db 컨테이너와 web 컨테이너가 연결되었습니다web/db라고 표시되는데 web 컨테이너에서 db 컨테이너에 접속할 수 있다는 것입니다.

이제 web 컨테이너 안에서 db:27017 주소로 db 컨테이너의 MongoDB에 접속할 수 있습니다.

mongodb://db:27017/exampledb

<별칭>:<포트 번호> 형식입니다.

 참고

다음과 같이 docker inspect 명령으로 web 컨테이너의 세부 정보에서 hosts 파일 경로를 구한 뒤 cat 명령으로 내용을 살펴봅니다(`는 탭키 위에 있는 문자입니다).

$ cat `docker inspect -f {{ .HostsPath }}" web`

172.17.0.13     aa1982fed33e

127.0.0.1       localhost

::1     localhost ip6-localhost ip6-loopback

fe00::0 ip6-localnet

ff00::0 ip6-mcastprefix

ff02::1 ip6-allnodes

ff02::2 ip6-allrouters

172.17.0.12     db

db --link db:db에서 설정한 별칭이고172.17.0.12 db 컨테이너의 IP 주소입니다.

컨테이너를 연결하면 이렇게 hosts 파일에 IP 주소가 자동으로 설정되기 때문에 별칭을 통해 연결한 컨테이너에 접속할 수 있습니다.


개인 저장소 구축하기#

Docker 저장소 서버는 Docker 레지스트리 서버라고 부릅니다. 레지스트리 서버에 이미지를 올리거나 받을 수 있습니다.

먼저 --insecure-registry 옵션을 사용하여 Docker 데몬을 실행합니다.

$ sudo docker -d --insecure-registry localhost:5000

보통 Docker 데몬을 직접 실행하지 않고 서비스 형태로 실행합니다. 이때는 /etc/init.d/docker 파일의 DOCKER_OPTS 부분을 다음과 같이 설정합니다(이 파일은 root 권한으로 수정해야 합니다).

/etc/init.d/docker

DOCKER_OPTS=--insecure-registry localhost:5000

/etc/init.d/docker 파일을 수정했으면 Docker 서비스를 재시작합니다.

$ sudo service docker restart


로컬에 이미지 데이터 저장#

Docker 레지스트리 서버도 Docker Hub를 통해 Docker 이미지로 제공됩니다. Docker 레지스트리 이미지를 받습니다.

$ sudo docker pull registry:latest

registry:latest 이미지를 컨테이너로 실행합니다.

$ sudo docker run -d -p 5000:5000 --name hello-registry \

    -v /tmp/registry:/tmp/registry \

    registry

이렇게 실행하면 이미지 파일은 호스트의 /tmp/registry 디렉터리에 저장됩니다.

push#

앞에서 만든 hello:0.1 이미지를 개인 저장소에 올려보겠습니다.

$ sudo docker tag hello:0.1 localhost:5000/hello:0.1

$ sudo docker push localhost:5000/hello:0.1

docker tag <이미지 이름>:<태그> <Docker 레지스트리 URL>/<이미지 이름>:<태그> 형식입니다.

docker push <Docker 레지스트리 URL>/<이미지 이름>:<태그> 형식입니다.

먼저 docker tag 명령으로 hello:0.1 이미지를 localhost:5000/hello:0.1 태그로 생성합니다. 그리고 docker push 명령으로 localhost:5000/hello:0.1 이미지를 개인 저장소에 올립니다(태그를 생성했으므로 실제로는 hello:0.1 이미지가 올라갑니다).

이제 다른 서버에서 개인 저장소(Docker 레지스트리 서버)에 접속하여 이미지를 받아올 수 있습니다. 개인 저장소 서버 IP 주소가 192.168.0.39라면 아래와 같이 명령을 실행합니다.

$ sudo docker pull 192.168.0.39:5000/hello:0.1

이미지 목록을 출력합니다.

$ sudo docker images

REPOSITORY                TAG                 IMAGE ID            CREATED             VIRTUAL SIZE

centos                    latest              0c752394b855        4 weeks ago         124.1 MB

192.168.0.39:5000/hello   0.1                 2031ee0736e8        4 weeks ago         298.4 MB

개인 저장소에서 192.168.0.39:5000/hello 이미지를 받았습니다.

이미지를 삭제할 때에는 아래와 같이 실행합니다.

$ sudo docker rmi 192.168.0.39:5000/hello:0.1


Amazon S3에 이미지 데이터 저장#

이번에는 AWS S3에 이미지 데이터를 저장하는 방법입니다.

Docker 레지스트리 이미지를 받습니다.

$ sudo docker pull registry:latest

registry:latest 이미지를 컨테이너로 실행합니다.

$ sudo docker run -d -p 5000:5000 --name s3-registry \

   -e SETTINGS_FLAVOR=s3 \

   -e AWS_BUCKET=examplebucket10 \

   -e STORAGE_PATH=/registry \

   -e AWS_KEY=AKIABCDEFGHIJKLMNOPQ \

   -e AWS_SECRET=sF4321ABCDEFGHIJKLMNOPqrstuvwxyz21345Afc \

   registry

  • SETTINGS_FLAVOR: s3을 설정합니다.
  • AWS_BUCKET: 이미지 데이터를 저장할 S3 버킷 이름을 설정합니다.
  • STORAGE_PATH: 이미지 데이터 저장 경로입니다/registry를 설정합니다.
  • AWS_KEY: AWS 액세스 키를 설정합니다.
  • AWS_SECRET: AWS 시크릿 키를 설정합니다.

이제 s3-retistry 저장소에 Docker 이미지를 push하면 S3 버킷에 저장됩니다.


기본 인증 사용하기#

Docker 레지스트리에는 로그인 기능이 없습니다. 따라서 Nginx의 기본 인증(Basic Authentication) 기능을 사용해야 합니다. 또한, HTTP 프로토콜에서는 인증을 지원하지 않으므로 반드시 HTTPS 프로토콜을 사용해야 합니다.

먼저 /etc/hosts 파일을 편집하여 테스트용 도메인을 추가합니다. 이 파일은 root 권한으로 수정해야 합니다. 도메인을 구입하지 않았을 때는 이 부분을 반드시 설정해주어야 하며, 도메인 구입하여 DNS를 설정하였다면 이 부분은 건너뛰어도 됩니다.

/etc/hosts

127.0.0.1       localhost

127.0.1.1       ubuntu

<레지스트리 서버 IP 주소>    registry.example.com

 

# The following lines are desirable for IPv6 capable hosts

::1     localhost ip6-localhost ip6-loopback

ff02::1 ip6-allnodes

ff02::2 ip6-allrouters

여러분의 레지스트리 서버 IP 주소를 registry.example.com으로 설정합니다. 이 문서에서는 registry.example.com을 기준으로 설명하겠습니다.

이제 SSL 사설 인증서(Self Signed)를 생성하겠습니다. SSL 공인 인증서를 구입하였다면 이 부분은 건너뛰어도 됩니다.

다음 명령을 입력하여 개인 키 파일을 생성합니다.

$ openssl genrsa -out server.key 2048

인증서 서명 요청(Certificate signing request) 파일을 생성합니다.

  • Country Name: 국가 코드입니다. KO를 입력합니다.
  • State or Province Name: 주 또는 도입니다. 자신의 상황에 맞게 입력합니다.
  • Locality Name: 도시입니다. 자신의 상황에 맞게 입력합니다.
  • Organization Name: 회사 이름을 입력합니다.
  • Organizational Unit Name: 조직 이름을 입력합니다.
  • Common Name: Docker 레지스트리를 실행하는 서버의 도메인입니다. 이 부분을 정확하게 입력하지 않으면 인증서를 사용해도 로그인할 때 에러가 발생합니다/etc/hosts 파일에 설정한대로 registry.example.com를 입력합니다.
  • Email Address: 이메일 주소입니다.

$ openssl req -new -key server.key -out server.csr

You are about to be asked to enter information that will be incorporated

into your certificate request.

What you are about to enter is what is called a Distinguished Name or a DN.

There are quite a few fields but you can leave some blank

For some fields there will be a default value,

If you enter '.', the field will be left blank.

-----

Country Name (2 letter code) [AU]:KO

State or Province Name (full name) [Some-State]:

Locality Name (eg, city) []:Seoul

Organization Name (eg, company) [Internet Widgits Pty Ltd]:Example Company

Organizational Unit Name (eg, section) []:Example Company

Common Name (e.g. server FQDN or YOUR name) []:registry.example.com

Email Address []:exampleuser@example.com

 

Please enter the following 'extra' attributes

to be sent with your certificate request

A challenge password []:<아무것도 입력하지 않음>

An optional company name []:<아무것도 입력하지 않음>

서버 인증서 파일을 생성합니다.

$ openssl x509 -req -days 365 -in server.csr -signkey server.key -out server.crt

이제 server.crt 인증서 파일을 시스템에 설치를 해주어야 합니다(인증서 파일을 설치하지 않으려면 –insecure-registry 옵션을 사용해야 합니다. 이 부분은 뒤에 따로 설명하겠습니다).

우분투

$ sudo cp server.crt /usr/share/ca-certificates/

$ echo "server.crt" | sudo tee -a /etc/ca-certificates.conf

$ sudo update-ca-certificates

CentOS

$ sudo cp server.crt /etc/pki/ca-trust/source/anchors/

$ sudo update-ca-trust enable

$ sudo update-ca-trust extract

/etc/hosts에 도메인을 추가하고, 인증서 파일을 설치했으면 Docker 서비스를 재시작합니다. Docker 서비스를 재시작해야 추가된 도메인과 설치된 인증서가 적용됩니다.

$ sudo service docker restart

Docker 레지스트리에 접속할 다른 시스템에도 server.crt 인증서 파일을 복사하여 같은 방식으로 설치를 하고 Docker 서비스를 재시작합니다. 그리고 도메인을 구입하지 않았다면 /etc/hosts에 레지스트리 서버(registry.example.com) IP 주소를 설정합니다.

 --insecure-registry 옵션

server.crt 인증서 파일을 시스템에 설치하지 않으려면 Docker 데몬을 실행할 때 --insecure-registry 옵션을 사용해야 합니다.

$ sudo docker -d --insecure-registry registry.example.com

  • --insecure-registry 옵션에 Docker 레지스트리의 도메인을 설정합니다. 도메인 여러 개를 설정하려면 --insecure-registry 옵션을 여러 번 사용하면 됩니다.

보통 Docker 데몬을 직접 실행하지 않고 서비스 형태로 실행합니다. 이때는 /etc/init.d/docker 파일의 DOCKER_OPTS 부분을 다음과 같이 설정합니다(이 파일은 root 권한으로 수정해야 합니다).

/etc/init.d/docker

DOCKER_OPTS=--insecure-registry registry.example.com

/etc/init.d/docker 파일을 수정했으면 Docker 서비스를 재시작합니다.

$ sudo service docker restart

Docker 레지스트리에 접속할 다른 시스템에도 같은 방식으로 --insecure-registry 옵션을 사용하여 Docker 데몬을 실행합니다.

이제 사용자 계정과 비밀번호를 저장할 .htpasswd 파일을 생성해야 합니다. 먼저 다음 패키지를 설치합니다.

우분투

$ sudo apt-get install apache2-utils

CentOS

$ sudo yum install httpd-tools

htpasswd 명령으로 .htpasswd 파일을 생성하고 hellouser라는 예제 사용자를 추가합니다. 비밀번호 입력 부분에는 사용할 비빌번호를 입력합니다.

$ htpasswd -c .htpasswd hellouser

New password:<비밀번호 입력>

Re-type new password:<비밀번호 입력>

Adding password for user hellouser

이번에는 Nginx 이미지를 따로 생성하지 않고 공식 이미지를 그대로 사용하겠습니다. 다음 내용을 nginx.conf 파일로 저장합니다.

nginx.conf

worker_processes  1;

 

events {

    worker_connections  1024;

}

 

http {

    server {

        listen       443;

        server_name  registry.example.com;

 

        ssl on;

        ssl_certificate /etc/server.crt;

        ssl_certificate_key /etc/server.key;

 

        proxy_set_header Host           $http_host;

        proxy_set_header X-Real-IP      $remote_addr;

        proxy_set_header Authorization  "";

 

        client_max_body_size 0;

 

        chunked_transfer_encoding on;

 

        location / {

            proxy_pass          http://docker-registry:5000;

            proxy_set_header    Host  $host;

            proxy_read_timeout  900;

 

            auth_basic            "Restricted";

            auth_basic_user_file  .htpasswd;

        }

    }

}

  • server_name: Docker 레지스트리 서버의 도메인을 설정합니다. 여기서는 registry.example.com을 설정합니다.
  • ssl_certificate, ssl_certificate_key: /etc/server.crt/etc/server.key를 설정합니다.
  • proxy_pass: 리버스 프록시 설정입니다. Docker 레지스트리 컨테이너와 포트인 docker-registry:5000을 설정합니다.
  • auth_basic: 인증 설정입니다"Restricted"를 설정하여 기본 인증을 사용합니다.
  • auth_basic_user_file: 사용자 정보가 저장된 .htpasswd 파일을 설정합니다.

 daemon off; 옵션

Nginx 공식 이미지 1.7.5 버전부터는 다음과 같이 Nginx 실행 파일을 실행할 때 옵션에 직접 daemon off;를 설정해줍니다. 따라서 nginx.conf 파일에는 daemon off; 옵션을 넣지 않아도 됩니다.

CMD ["nginx", "-g", "daemon off;"]

다음 명령을 실행하여 Docker 레지스트리 컨테이너를 먼저 생성합니다. 컨테이너의 이름은 nginx.conf 파일에서 설정한 대로 docker-registry로 지정합니다.

$ sudo docker run -d --name docker-registry \

   -v /tmp/registry:/tmp/registry \

   registry:0.8.1

  • Nginx를 통해서 사용자 인증을 하고 이미지를 주고 받을 것이기 때문에 Docker 레지스트리는 5000번 포트를 외부에 노출하지 않습니다.

Nginx 공식 이미지 1.7.5 버전으로 컨테이너를 생성하고 docker-registry 컨테이너와 연결합니다.

$ sudo docker run -d --name nginx-registry \

   -v ~/nginx.conf:/etc/nginx/nginx.conf \

   -v ~/.htpasswd:/etc/nginx/.htpasswd \

   -v ~/server.key:/etc/server.key \

   -v ~/server.crt:/etc/server.crt \

   --link docker-registry:docker-registry \

   -p 443:443 \

   nginx:1.7.5

  • -v 옵션으로 nginx.conf 파일은 컨테이너의 /etc/nginx/nginx.conf로 연결합니다. 마찬가지로 .htpasswd 파일도 /etc/nginx/.htpasswd로 연결합니다server.keyserver.crt 파일은 앞에서 설정한 것처럼 /etc 디렉터리 아래에 연결합니다.
  • --link docker-registry:docker-registry 옵션으로 앞에서 생성한 docker-registry 컨테이너를 docker-registry 별칭으로 연결합니다. 이렇게하면 nginx.conf proxy_pass 설정으로 Docker 레지스트리에 트래픽을 보낼 수 있습니다.
  • -p 443:443 옵션으로 443번 포트를 외부에 노출합니다.

docker login 명령으로 https://registry.example.com 로그인합니다. Username Password에는 htpasswd 명령으로 생성한 사용자와 비밀번호를 입력합니다. 이메일은 입력하지 않아도 됩니다.

$ docker login https://registry.example.com

Username: hellouser

Password: <비밀번호 입력>

Email:

Login Succeeded

docker login <Docker 레지스트리 URL> 형식입니다.

 주의

도메인 설정이 귀찮다고 그냥 건너뛰고 IP 주소만 사용하면 로그인이 안됩니다. 인증서에 설정한 도메인과 docker login 명령에 입력한 도메인이 반드시 일치해야 합니다. HTTPS 프로토콜은 IP 주소 접속을 허용하지 않으므로 구입하지 않은 도메인은 /etc/hosts 파일에 등록하여 사용합니다.

이제 앞에서 만든 hello:0.1 이미지를 개인 저장소에 올려보겠습니다.

$ sudo docker tag hello:0.1 registry.example.com/hello:0.1

$ sudo docker push registry.example.com/hello:0.1

The push refers to a repository [registry.example.com/hello] (len: 1)

Sending image list

Pushing repository registry.example.com/hello (1 tags)

511136ea3c5a: Image successfully pushed

bfb8b5a2ad34: Image successfully pushed

c1f3bdbd8355: Image successfully pushed

897578f527ae: Image successfully pushed

9387bcc9826e: Image successfully pushed

809ed259f845: Image successfully pushed

96864a7d2df3: Image successfully pushed

ba3b051655b4: Image successfully pushed

11ae3a0f7f28: Image successfully pushed

e75f421fc19c: Image successfully pushed

507149de4094: Image successfully pushed

ce11bd8322f9: Image successfully pushed

bb5b14a7e9b8: Image successfully pushed

548b98b8a152: Image successfully pushed

e376f7a8e74c: Image successfully pushed

e2626c81818f: Image successfully pushed

7a06b68da607: Image successfully pushed

Pushing tag for rev [7a06b68da607] on {https://registry.example.com/v1/repositories/hello/tags/0.1}

이미지의 태그는 <Docker 레지스트리 URL>/<이미지 이름>:<태그> 형식으로 생성합니다. 우리는 registry.example.com으로 설정했으므로 registry.example.com/hello:0.1이 됩니다.

다른 서버에서는 다음 명령을 실행하여 registry.example.com에 저장된 이미지를 받을 수 있습니다.

$ sudo docker pull registry.example.com/hello:0.1

 

반응형
반응형

개념 잡기
Docker는 Linux 기반의 Container RunTime 오픈소스이다. 처음 개념을 잡기가 조금 어려운데, Virtual Machine과 상당히 유사한 기능을 가지면서, Virtual Machine보다 훨씬 가벼운 형태로 배포가 가능하다. 정확한 이해를 돕기 위해서, VM 과 Docker Container의 차이를 살펴보자.
아래는 VM 에 대한 컨셉이다. Host OS가 깔리고, 그 위에 Hypervisor (VMWare,KVM,Xen etc)가 깔린 후에, 그위에, Virtual Machine이 만들어진다. Virtual Machine은 일종의 x86 하드웨어를 가상화 한 것이라고 보면된다. 그래서 VM위에 다양한 종류의 Linux나, Windows등의 OS를 설치할 수 있다.
 


 
 
Docker의Container 컨셉은 비슷하지만 약간 다르다. Docker도 VM 처럼 Docker Engine이 Host위에서 수행된다. 그리고, Container는 Linux 기반의 OS만 수행이 가능하다.
Docker는 VM처럼 Hardware를 가상화 해주는 것이 아니라, Guest OS (Container)를 Isolation해준다.무슨 말인가 하면, Container의 OS는 기본적으로 Linux OS만 지원하는데, Container 자체에는 Kernel등의 OS 이미지가 들어가 있지 않다. Kernel은 Host OS를 그대로 사용하되, Host OS와 Container의 OS의 다른 부분만 Container 내에 같이 Packing된다. 예를 들어 Host OS가 Ubuntu version X이고, Container의 OS가CentOS version Y라고 했을때, Container에는 CentOS version Y의 full image가 들어가 있는 것이 아니라, Ubuntu version X와 CentOS version Y의 차이가 되는 부분만 패키징이 된다. Container 내에서 명령어를 수행하면 실제로는 Host OS에서 그 명령어가 수행된다. 즉 Host OS의 Process 공간을 공유한다.
 


 
실제로 Container에서 App을 수행하고 ps –ef 를 이용하여 process를 보면, “lxc”라는 이름으로 해당 App이 수행됨을 확인할 수 있다. 아래는docker를 이용해서 container에서 bash 를 수행했을때는 ps 정보이다. lxc 프로세스로 bash 명령어가 수행되었음을 확인할 수 있다.
root      4641   954  0 15:07 pts/1    00:00:00 lxc-start -n 161c56b9284ffbad0477bd04875c4277be976e2032f3ffa35395950ea05f9bd6 -f /var/lib/docker/containers/161c56b9284ffbad0477bd04875c4277be976e2032f3ffa35395950ea05f9bd6/config.lxc -- /.dockerinit -g 172.17.42.1 -e TERM=xterm -e HOME=/ -e PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin -e container=lxc -e HOSTNAME=161c56b9284f -- /bin/bash
LXC는 (LinuX Container)로, 자세한 정보는 http://linuxcontainers.org/ 에서 얻을 수 있다.
lxc는 container를 실행시켜주는 runtime으로, 앞에서 설명한것과 같이 VM과 비슷한 기능을 제공하지만, 실제 수행에 있어서, guest os (container)를 마치 VM처럼 isolate해서 수행해주는 기능을 제공한다.
이와 같이 Docker는 LXC라는 Linux에 특화된 feature를 사용하기 때문에, 제약 사항을 가지고 있는데, 현재까지 Docker는 Ubuntu 12.04 이상(Host OS)에서만 사용이 가능하다.
Performance에 대해서는 당연히 Host OS에서 직접 application 을 돌리는 것보다 performance 감소가 있는데, 아래 표와 같이 performance 감소가 매우 적은 것을 볼 수 있다.
 


 
 
출처: http://www.slideshare.net/modestjude/dockerat-deview-2013
Repository 연계
다음으로 Docker의 특징중의 하나는 repository 연계이다.Container Image를 중앙의 Repository에 저장했다가, 다른 환경에서 가져다가 사용할 수 있다. 마치 git와 같은 VCS (Version Control System)과 같은 개념인데, 이를 통해서 Application들을 Container로 패키징해서 다른 환경으로 쉽게 옮길 수 있다는 이야기다.
 


 
예를 들어 local pc에서 mysql, apache, tomcat등을 각 컨테이너에 넣어서 개발을 한 후에, 테스트 환경등으로 옮길때, Container를 repository에 저장했다가 테스트환경에서 pulling(당겨서) 똑같은 테스트환경을 꾸밀 수 있다는 것이다. Container에는 모든 application과 설치 파일, 환경 설정 정보 등이 들어 있기 때문에, 손쉽게 패키징 및 설치가 가능하다는 장점을 가지고 있다.
여기서 고려해야할점은 Docker는 아쉽게도 아직까지 개발중이고, 정식 릴리즈 버전이 아니다. 그래서, 아직까지는 production(운영환경)에 배포를 권장하고 있지 않다. 단 개발환경에서는 모든 개발자가 동일한 개발환경을 사용할 수 있게 할 수 있고, 또한 VM 보다 가볍기 때문에, 개발환경을 세팅하는데 적절하다고 볼 수 있다.
Base Image vs Dockerfile
Docker의 Container Image를 packing하기 위해서, Docker는 Base Image와 Docker file이라는 두가지 컨셉을 이용한다. 쉽게 설명하면, Base Image는 기본적인 인스톨 이미지, Docker file은 기본적인 인스톨 이미지와 그 위에 추가로 설치되는 스크립트를 정의한다.
예를 들어 Base Image가 Ubuntu OS 이미지라면, Docker File은 Ubuntu OS + Apache, MySQL을 인스톨하는 스크립트라고 보면 된다. 일반적으로 Docker Base Image는 기본 OS 인스톨 이미지라고 보면 된다. 만약에 직접 Base Image를 만들고 싶으면  http://docs.docker.io/en/latest/use/baseimages/ 를 참고하면 된다. docker에서는 미리 prebuilt in image들을 제공하는데,https://index.docker.io/ 를 보면 public repository를 통해서 제공되는 이미지들을 확인할 수 있다. 아직까지는 Ubuntu 많이 공식적으로 제공되고, 일반 contributor들이 배포한 centos 등의 이미지들을 검색할 수 있다. (2013.10.22 현재 redhat 등의 이미지는 없다.)
아래는 docker file 샘플이다. (출처 : http://docs.docker.io/en/latest/use/builder/)
# Nginx
#
# VERSION               0.0.1
 
FROM      ubuntu
MAINTAINER Guillaume J. Charmes <guillaume@dotcloud.com>
 
# make sure the package repository is up to date
RUN echo "deb http://archive.ubuntu.com/ubuntu precise main universe" > /etc/apt/sources.list
RUN apt-get update
 
RUN apt-get install -y inotify-tools nginx apache2 openssh-server
위의 이미지는 Ubuntu OS 베이스 이미지에 apt-get을 이용해서, inotify-tools nginx apache2 openssh-serverf 를 인스톨하는 스크립트이다.
Docker 실행해보기
그럼 간단하게 docker를 테스트해보자, 윈도우즈 환경을 가정한다. 앞서 말한바와 같이 Docker는 Unbuntu 위에서만 작동한다. (참고 :http://docs.docker.io/en/latest/installation/windows/)
그래서, 윈도우즈 위에서 Ubuntu VM을 설치한후, Ubuntu VM에서 Docker를 실행할 것이다. 이를 위해서 VM을 수행하기 위한 환경을 설치한다.
  Hypervisor인 Virtual Box를 설치한다. https://www.virtualbox.org 
  VM을 실행하기 위한 vagrant를 설치한다. http://www.vagrantup.com 
  Docker 코드를 다운받기 위해서 git 클라이언트를 설치한다. http://git-scm.com/downloads 
여기까지 설치했으면, docker를 실행하기 위한 준비가 되었다.
다음 명령어를 수행해서, docker 코드를 git hub에서 다운로드 받은 후에, vagrant를 이용해서 Ubuntu host os를 구동한다.

git clone https://github.com/dotcloud/docker.git
cd docker
vagrant up
Virtual Box를 확인해보면, Docker의 Host OS가 될 Ubuntu OS가 기동되었음을 확인할 수 있다.
 


 
그러면, 기동된 Ubuntu OS로 SSH를 이용해서 log in을 해보자. Putty를 이용해서 127.0.0.1:2222 포트로, SSH를 통해서 로그인한다. (기본id,passwd는 vagrant/vagrant 이다.)
이제 Docker를 이용해서, public repository에서 “busybox”라는 Ubuntu OS를 Container로 설치하고, 그 Container에서 “echo hello world” 명령어를 수행해보자
sudo su
docker run busybox echo hello world
Docker가 public repository에서 busybox image를 다운로드 받아서 설치하고, 아래와 같이 명령어를 수행했음을 확인할 수 있다.
 


 
※ 참고 : 현재 docker에 설치된 이미지 리스트 docker images, 설치된 이미지를 삭제할려면 docker rmi {image id}. {image id}는 docker images에서 hexa로 나온 id를 사용하면 된다.

반응형

'오픈소스 활용하기' 카테고리의 다른 글

KVM 설치 가이드  (1) 2023.11.13
가상 머신과 Docker  (2) 2023.11.13
Zabbix server config 파라메터  (1) 2023.11.09
Zabbix value cache working in low memory mode  (0) 2023.11.09
Zabbix 한글깨짐 관련  (0) 2023.11.09
반응형
Parameter Mandatory Range Default Description
AlertScriptsPath no
/usr/local/share/zabbix/alertscripts Location of custom alert scripts (depends on compile-time installation variable datadir).
AllowRoot no
0 Allow the server to run as 'root'. If disabled and the server is started by 'root', the server will try to switch to the 'zabbix' user instead. Has no effect if started under a regular user.
0 - do not allow
1 - allow
This parameter is supported since Zabbix 2.2.0.
CacheSize no 128K-8G 8M Size of configuration cache, in bytes.
Shared memory size for storing host, item and trigger data.
Upper limit used to be 2GB before Zabbix 2.2.3.
CacheUpdateFrequency no 1-3600 60 How often Zabbix will perform update of configuration cache, in seconds.
See also runtime control options.
DBHost no
localhost Database host name.
In case of MySQL localhost or empty string results in using a socket. In case of PostgreSQL
only empty string results in attempt to use socket.
DBName yes

Database name or path to database file for SQLite3 (multi-process architecture of Zabbix does not allow to use in-memory database, e.g. :memory:file::memory:?cache=shared or file:memdb1?mode=memory&cache=shared).
DBPassword no

Database password. Ignored for SQLite.
Comment this line if no password is used.
DBPort no 1024-65535 3306 Database port when not using local socket. Ignored for SQLite.
DBSchema no

Schema name. Used for IBM DB2 and PostgreSQL.
DBSocket no
/tmp/mysql.sock Path to MySQL socket.
DBUser no

Database user. Ignored for SQLite.
DebugLevel no 0-5 3 Specifies debug level:
0 - basic information about starting and stopping of Zabbix processes
1 - critical information
2 - error information
3 - warnings
4 - for debugging (produces lots of information)
5 - extended debugging (produces even more information)
See also runtime control options.
ExternalScripts no
/usr/local/share/zabbix/externalscripts Location of external scripts (depends on compile-time installation variable datadir).
Fping6Location no
/usr/sbin/fping6 Location of fping6.
Make sure that fping6 binary has root ownership and SUID flag set.
Make empty (“Fping6Location=”) if your fping utility is capable to process IPv6 addresses.
FpingLocation no
/usr/sbin/fping Location of fping.
Make sure that fping binary has root ownership and SUID flag set!
HistoryCacheSize no 128K-2G 16M Size of history cache, in bytes.
Shared memory size for storing history data.
HistoryIndexCacheSize no 128K-2G 4M Size of history index cache, in bytes.
Shared memory size for indexing history data stored in history cache.
The index cache size needs roughly 100 bytes to cache one item.
This parameter is supported since Zabbix 3.0.0.
HousekeepingFrequency no 0-24 1 How often Zabbix will perform housekeeping procedure (in hours).
Housekeeping is removing outdated information from the database.
Note: To prevent housekeeper from being overloaded (for example, when history and trend periods are greatly reduced), no more than 4 times HousekeepingFrequency hours of outdated information are deleted in one housekeeping cycle, for each item. Thus, if HousekeepingFrequency is 1, no more than 4 hours of outdated information (starting from the oldest entry) will be deleted per cycle.
Note: To lower load on server startup housekeeping is postponed for 30 minutes after server start. Thus, if HousekeepingFrequency is 1, the very first housekeeping procedure after server start will run after 30 minutes, and will repeat with one hour delay thereafter. This postponing behavior is in place since Zabbix 2.4.0.
Since Zabbix 3.0.0 it is possible to disable automatic housekeeping by setting HousekeepingFrequency to 0. In this case the housekeeping procedure can only be started by housekeeper_execute runtime control option and the period of outdated information deleted in one housekeeping cycle is 4 times the period since the last housekeeping cycle, but not less than 4 hours and not greater than 4 days.
See also runtime control options.
Include no

You may include individual files or all files in a directory in the configuration file.
To only include relevant files in the specified directory, the asterisk wildcard character is supported for pattern matching. For example: /absolute/path/to/config/files/*.conf. Pattern matching is supported since Zabbix 2.4.0.
See special notes about limitations.
JavaGateway no

IP address (or hostname) of Zabbix Java gateway.
Only required if Java pollers are started.
This parameter is supported since Zabbix 2.0.0.
JavaGatewayPort no 1024-32767 10052 Port that Zabbix Java gateway listens on.
This parameter is supported since Zabbix 2.0.0.
ListenIP no
0.0.0.0 List of comma delimited IP addresses that the trapper should listen on.
Trapper will listen on all network interfaces if this parameter is missing.
Multiple IP addresses are supported since Zabbix 1.8.3.
ListenPort no 1024-32767 10051 Listen port for trapper.
LoadModule no

Module to load at server startup. Modules are used to extend functionality of the server.
Format: LoadModule=<module.so>
The modules must be located in directory specified by LoadModulePath.
It is allowed to include multiple LoadModule parameters.
LoadModulePath no

Full path to location of server modules.
Default depends on compilation options.
LogFile yes, if LogType is set to file, otherwise
no


Name of log file.
LogFileSize no 0-1024 1 Maximum size of log file in MB.
0 - disable automatic log rotation.
Note: If the log file size limit is reached and file rotation fails, for whatever reason, the existing log file is truncated and started anew.
LogType no
file Log output type:
file - write log to file specified by LogFile parameter,
system - write log to syslog,
console - write log to standard output.
This parameter is supported since Zabbix 3.0.0.
LogSlowQueries no 0-3600000 0 How long a database query may take before being logged (in milliseconds).
0 - don't log slow queries.
This option becomes enabled starting with DebugLevel=3.
This parameter is supported since Zabbix 1.8.2.
MaxHousekeeperDelete no 0-1000000 5000 No more than 'MaxHousekeeperDelete' rows (corresponding to [tablename], [field], [value]) will be deleted per one task in one housekeeping cycle.
SQLite3 does not use this parameter, deletes all corresponding rows without a limit.
If set to 0 then no limit is used at all. In this case you must know what you are doing!
This parameter is supported since Zabbix 1.8.2 and applies only to deleting history and trends of already deleted items.
PidFile no
/tmp/zabbix_server.pid Name of PID file.
ProxyConfigFrequency no 1-604800 3600 How often Zabbix server sends configuration data to a Zabbix proxy in seconds. Used only for proxies in a passive mode.
This parameter is supported since Zabbix 1.8.3.
ProxyDataFrequency no 1-3600 1 How often Zabbix server requests history data from a Zabbix proxy in seconds. Used only for proxies in a passive mode.
This parameter is supported since Zabbix 1.8.3.
SenderFrequency no 5-3600 30 How often Zabbix will try to send unsent alerts (in seconds).
SNMPTrapperFile no
/tmp/zabbix_traps.tmp Temporary file used for passing data from SNMP trap daemon to the server.
Must be the same as in zabbix_trap_receiver.pl or SNMPTT configuration file.
This parameter is supported since Zabbix 2.0.0.
SourceIP no

Source IP address for outgoing connections.
SSHKeyLocation no

Location of public and private keys for SSH checks and actions
SSLCertLocation no

Location of SSL client certificate files for client authentication.
This parameter is used in web monitoring only and is supported since Zabbix 2.4.
SSLKeyLocation no

Location of SSL private key files for client authentication.
This parameter is used in web monitoring only and is supported since Zabbix 2.4.
SSLCALocation no

Override the location of certificate authority (CA) files for SSL server certificate verification. If not set, system-wide directory will be used.
Note that the value of this parameter will be set as libcurl option CURLOPT_CAPATH. For libcurl versions before 7.42.0, this only has effect if libcurl was compiled to use OpenSSL. For more information see cURL web page.
This parameter is used in web monitoring since Zabbix 2.4.0 and in SMTP authentication since Zabbix 3.0.0.
StartDBSyncers no 1-100 4 Number of pre-forked instances of DB Syncers.
The upper limit used to be 64 before version 1.8.5.
This parameter is supported since Zabbix 1.8.3.
StartDiscoverers no 0-250 1 Number of pre-forked instances of discoverers.
The upper limit used to be 255 before version 1.8.5.
StartEscalators no 1-100 1 Number of pre-forked instances of escalators.
This parameter is supported since Zabbix 3.0.0.
StartHTTPPollers no 0-1000 1 Number of pre-forked instances of HTTP pollers.
The upper limit used to be 255 before version 1.8.5.
StartIPMIPollers no 0-1000 0 Number of pre-forked instances of IPMI pollers.
The upper limit used to be 255 before version 1.8.5.
StartJavaPollers no 0-1000 0 Number of pre-forked instances of Java pollers.
This parameter is supported since Zabbix 2.0.0.
StartPingers no 0-1000 1 Number of pre-forked instances of ICMP pingers.
The upper limit used to be 255 before version 1.8.5.
StartPollersUnreachable no 0-1000 1 Number of pre-forked instances of pollers for unreachable hosts (including IPMI and Java).
Since Zabbix 2.4.0, at least one poller for unreachable hosts must be running if regular, IPMI or Java pollers are started.
The upper limit used to be 255 before version 1.8.5.
This option is missing in version 1.8.3.
StartPollers no 0-1000 5 Number of pre-forked instances of pollers.
Note that a non-zero value is required for internal, aggregated and calculated items to work.
StartProxyPollers no 0-250 1 Number of pre-forked instances of pollers for passive proxies.
The upper limit used to be 255 before version 1.8.5.
This parameter is supported since Zabbix 1.8.3.
StartSNMPTrapper no 0-1 0 If set to 1, SNMP trapper process will be started.
This parameter is supported since Zabbix 2.0.0.
StartTimers no 1-1000 1 Number of pre-forked instances of timers.
Timers process time-based trigger functions and maintenance periods.
Only the first timer process handles the maintenance periods.
This parameter is supported since Zabbix 2.2.0.
StartTrappers no 0-1000 5 Number of pre-forked instances of trappers.
Trappers accept incoming connections from Zabbix sender, active agents and active proxies.
At least one trapper process must be running to display server availability and view queue in the frontend.
The upper limit used to be 255 before version 1.8.5.
StartVMwareCollectors no 0-250 0 Number of pre-forked vmware collector instances.
This parameter is supported since Zabbix 2.2.0.
Timeout no 1-30 3 Specifies how long we wait for agent, SNMP device or external check (in seconds).
TLSCAFile no

Full pathname of a file containing the top-level CA(s) certificates for peer certificate verification, used for encrypted communications between Zabbix components.
This parameter is supported since Zabbix 3.0.0.
TLSCertFile no

Full pathname of a file containing the server certificate or certificate chain, used for encrypted communications between Zabbix components.
This parameter is supported since Zabbix 3.0.0.
TLSCRLFile no

Full pathname of a file containing revoked certificates. This parameter is used for encrypted communications between Zabbix components.
This parameter is supported since Zabbix 3.0.0.
TLSKeyFile no

Full pathname of a file containing the server private key, used for encrypted communications between Zabbix components.
This parameter is supported since Zabbix 3.0.0.
TmpDir no
/tmp Temporary directory.
TrapperTimeout no 1-300 300 Specifies how many seconds trapper may spend processing new data.
TrendCacheSize no 128K-2G 4M Size of trend cache, in bytes.
Shared memory size for storing trends data.
UnavailableDelay no 1-3600 60 How often host is checked for availability during the unavailability period, in seconds.
UnreachableDelay no 1-3600 15 How often host is checked for availability during the unreachability period, in seconds.
UnreachablePeriod no 1-3600 45 After how many seconds of unreachability treat a host as unavailable.
User no
zabbix Drop privileges to a specific, existing user on the system.
Only has effect if run as 'root' and AllowRoot is disabled.
This parameter is supported since Zabbix 2.4.0.
ValueCacheSize no 0,128K-64G 8M Size of history value cache, in bytes.
Shared memory size for caching item history data requests.
Setting to 0 disables value cache (not recommended).
When value cache runs out of the shared memory a warning message is written to the server log every 5 minutes.
This parameter is supported since Zabbix 2.2.0.
VMwareCacheSize no 256K-2G 8M Shared memory size for storing VMware data.
A VMware internal check zabbix[vmware,buffer,…] can be used to monitor the VMware cache usage (see Internal checks).
Note that shared memory is not allocated if there are no vmware collector instances configured to start.
This parameter is supported since Zabbix 2.2.0.
VMwareFrequency no 10-86400 60 Delay in seconds between data gathering from a single VMware service.
This delay should be set to the least update interval of any VMware monitoring item.
This parameter is supported since Zabbix 2.2.0.
VMwarePerfFrequency no 10-86400 60 Delay in seconds between performance counter statistics retrieval from a single VMware service.
This delay should be set to the least update interval of any VMware monitoring item that uses VMware performance counters.
This parameter is supported since Zabbix 2.2.9, 2.4.4
VMwareTimeout no 1-300 10 The maximum number of seconds vmware collector will wait for a response from VMware service (vCenter or ESX hypervisor).
This parameter is supported since Zabbix 2.2.9, 2.4.4

 

출처: <https://www.zabbix.com/documentation/3.0/manual/appendix/config/zabbix_server>

반응형
반응형

Zabbix value cache working in low memory mode

22-01-2018, 15:55

Hi i see this messenger in my dashboard:

 

Zabbix value cache working in low memory mode

 

but i already change the file /etc/zabbix/zabbix_server.conf:

 

### Option: VMwareCacheSize

# Size of VMware cache, in bytes.

# Shared memory size for storing VMware data.

# Only used if VMware collectors are started.

#

# Mandatory: no

# Range: 256K-2G

# Default:

#VMwareCacheSize=8MB (valor padrado)

VMwareCacheSize=2G

 

### Option: CacheSize

# Size of configuration cache, in bytes.

# Shared memory size for storing host, item and trigger data.

#

# Mandatory: no

# Range: 128K-8G

# Default:

CacheSize=16G

 

### Option: HistoryIndexCacheSize

# Size of history index cache, in bytes.

# Shared memory size for indexing history cache.

#

# Mandatory: no

# Range: 128K-2G

# Default:

# HistoryIndexCacheSize=4M

HistoryIndexCacheSize=200M

 

### Option: ValueCacheSize

# Size of history value cache, in bytes.

# Shared memory size for caching item history data requests.

# Setting to 0 disables value cache.

#

# Mandatory: no

# Range: 0,128K-64G

# Default:

# ValueCacheSize=8M

ValueCacheSize=100M

 

 

What can i do to resolve this problem?

Thanks

Tags: None

 

출처: <https://www.zabbix.com/forum/zabbix-help/52925-zabbix-value-cache-working-in-low-memory-mode>

반응형
반응형

http://software.naver.com/software/fontList.nhn?categoryId=I0000000

네이버에서 적당한 폰트를 구해 다운로드 합니다.

Zabbix Server에 다운로드한 font /usr/share/zabbix/fonts에 업로드 합니다.

# mv /usr/share/zabbix/fonts/graphfont.ttf /usr/share/zabbix/fonts/graphfont.ttf.org

저의 경우는 다운로드 한 파일이 NanumGothic.ttf이므로

# mv /usr/share/zabbix/fonts/NanumGothic.ttf /usr/share/zabbix/fonts/graphfont.ttf

이렇게 했습니다.

 

 

cp /tmp/NanumGothic.ttf /usr/share/zabbix/fonts/graphfont.ttf

 

 

Zabbix 4.x 버전의 font 위치는 /usr/share/zabbix/assets/fonts/graphfont.ttf 변경이 되었다.

 

 

출처: <https://naiggy.blogspot.com/2017/02/zabbix_28.html>

반응형

+ Recent posts