XECon2015 :: [1-5] 김훈민 - 서버 운영자가 꼭 알아야 할 DockerXpressEngine요즘 규모에 상관 없이 서버를 운영하는 웹서비스 업체에서는 도커라는 주제가 화두입니다. 오히려 발빠른 개발자나 운영자들은 이미 도커를 이용하여 서비스를 운영하고 있지요. 본 세션은 도커의 기술적인 내용 보다는 사용자 입장에서 알아야 할 내용을 중심으로 구성됩니다.
[NDC17] Kubernetes로 개발서버 간단히 찍어내기SeungYong Oh데브시스터즈의 Cookie Run: OvenBreak 에 적용된 Kubernetes 기반 다중 개발 서버 환경 구축 시스템에 대한 발표입니다.
Container orchestration 기반 개발 환경 구축 시스템의 필요성과, 왜 Kubernetes를 선택했는지, Kubernetes의 개념과 유용한 기능들을 다룹니다. 아울러 구축한 시스템에 대한 데모와, 작업했던 항목들에 대해 리뷰합니다.
*NDC17 발표에서는 데모 동영상을 사용했으나, 슬라이드 캡쳐로 대신합니다.
Confd, systemd, fleet을 이용한 어플리케이션 배포 in CoreOS충섭 김Confd, systemd, fleet을 이용한 어플리케이션 배포 in CoreOS
Docker Seoul Meetup #2에서 발표한 자료입니다.
CoreOS에서 confd와 sidekick service를 이용한 서비스 배포에 대한 내용입니다.
http://www.youtube.com/watch?v=5ixJCM6pAcg
영상과 함께 보시면 더 좋습니다 :)
도커 무작정 따라하기: 도커가 처음인 사람도 60분이면 웹 서버를 올릴 수 있습니다!pyrasis도커 무작정 따라하기
- 도커가 처음인 사람도 60분이면 웹 서버를 올릴 수 있습니다!
도커의 기본 개념부터 설치와 사용 방법까지 설명합니다.
더 자세한 내용은 가장 빨리 만나는 도커(Docker)를 참조해주세요~
http://www.pyrasis.com/private/2014/11/30/publish-docker-for-the-really-impatient-book
Docker 로 Linux 없이 Linux 환경에서 개발하기iFunFactory Inc.2016 아이펀팩토리 Dev Day 발표 자료
강연 제목 : Docker 로 Linux 없이 Linux 환경에서 개발하기
발표자 : 김진욱 CTO
<2016>
- 일시 : 2016년 9월 28 수요일 12:00~14:20
- 장소 : 넥슨 판교 사옥 지하 1층 교육실
[오픈소스컨설팅]Virtualization kvm-rhevJi-Woong ChoiIt explains virtualization technology, KVM How-To, RHEV introduction for users and engineers.
KVM (for Kernel-based Virtual Machine) is a full virtualization solution for Linux on x86 hardware containing virtualization extensions (Intel VT or AMD-V). RHEV is based on KVM and includes Red Hat Subscription program. You can understand about virtualization in this document.
Enjoy.
클라우드 컴퓨팅 기반 기술과 오픈스택(Kvm) 기반 Provisioning Ji-Woong ChoiTTA에 KVM 기반 프로비저닝 기술에 대한 데모 세션을 포함하는 세미나 관련 자료입니다. 클라우드환경으로 가고자 해서Paas를 어떤 플랫폼위에 올린다면 그리고 가상화 환경이나 클라우드 환경으로 올린다면 어떤 환경으로 올릴것인가를 고민하여야 합니다.
그리고 이 hypervisor중에 cloud 환경에서 가장 주목받는 kvm을 기반으로 하는 두가지 가상화 클라우드 솔루션인 rhev와 openstack을 잠시 살펴볼 것입니다.
그리고 이러한 가상화 클라우드 환경에서 자동화 하는 솔류션을 어떻게 고려해야 하는가를 살펴보고, 그런 솔류션중에 하나인 아테나 피콕에 대해 살펴보겠습니다.
그리고 오픈스택환경하에서 구축해서 사용했던 사용기와 이를 자동화하기위해 개발자들이 사용했던 간단한 ansible provisioning 모습을 시연합니다.
XECon2015 :: [1-5] 김훈민 - 서버 운영자가 꼭 알아야 할 DockerXpressEngine요즘 규모에 상관 없이 서버를 운영하는 웹서비스 업체에서는 도커라는 주제가 화두입니다. 오히려 발빠른 개발자나 운영자들은 이미 도커를 이용하여 서비스를 운영하고 있지요. 본 세션은 도커의 기술적인 내용 보다는 사용자 입장에서 알아야 할 내용을 중심으로 구성됩니다.
[NDC17] Kubernetes로 개발서버 간단히 찍어내기SeungYong Oh데브시스터즈의 Cookie Run: OvenBreak 에 적용된 Kubernetes 기반 다중 개발 서버 환경 구축 시스템에 대한 발표입니다.
Container orchestration 기반 개발 환경 구축 시스템의 필요성과, 왜 Kubernetes를 선택했는지, Kubernetes의 개념과 유용한 기능들을 다룹니다. 아울러 구축한 시스템에 대한 데모와, 작업했던 항목들에 대해 리뷰합니다.
*NDC17 발표에서는 데모 동영상을 사용했으나, 슬라이드 캡쳐로 대신합니다.
Confd, systemd, fleet을 이용한 어플리케이션 배포 in CoreOS충섭 김Confd, systemd, fleet을 이용한 어플리케이션 배포 in CoreOS
Docker Seoul Meetup #2에서 발표한 자료입니다.
CoreOS에서 confd와 sidekick service를 이용한 서비스 배포에 대한 내용입니다.
http://www.youtube.com/watch?v=5ixJCM6pAcg
영상과 함께 보시면 더 좋습니다 :)
도커 무작정 따라하기: 도커가 처음인 사람도 60분이면 웹 서버를 올릴 수 있습니다!pyrasis도커 무작정 따라하기
- 도커가 처음인 사람도 60분이면 웹 서버를 올릴 수 있습니다!
도커의 기본 개념부터 설치와 사용 방법까지 설명합니다.
더 자세한 내용은 가장 빨리 만나는 도커(Docker)를 참조해주세요~
http://www.pyrasis.com/private/2014/11/30/publish-docker-for-the-really-impatient-book
Docker 로 Linux 없이 Linux 환경에서 개발하기iFunFactory Inc.2016 아이펀팩토리 Dev Day 발표 자료
강연 제목 : Docker 로 Linux 없이 Linux 환경에서 개발하기
발표자 : 김진욱 CTO
<2016>
- 일시 : 2016년 9월 28 수요일 12:00~14:20
- 장소 : 넥슨 판교 사옥 지하 1층 교육실
[오픈소스컨설팅]Virtualization kvm-rhevJi-Woong ChoiIt explains virtualization technology, KVM How-To, RHEV introduction for users and engineers.
KVM (for Kernel-based Virtual Machine) is a full virtualization solution for Linux on x86 hardware containing virtualization extensions (Intel VT or AMD-V). RHEV is based on KVM and includes Red Hat Subscription program. You can understand about virtualization in this document.
Enjoy.
클라우드 컴퓨팅 기반 기술과 오픈스택(Kvm) 기반 Provisioning Ji-Woong ChoiTTA에 KVM 기반 프로비저닝 기술에 대한 데모 세션을 포함하는 세미나 관련 자료입니다. 클라우드환경으로 가고자 해서Paas를 어떤 플랫폼위에 올린다면 그리고 가상화 환경이나 클라우드 환경으로 올린다면 어떤 환경으로 올릴것인가를 고민하여야 합니다.
그리고 이 hypervisor중에 cloud 환경에서 가장 주목받는 kvm을 기반으로 하는 두가지 가상화 클라우드 솔루션인 rhev와 openstack을 잠시 살펴볼 것입니다.
그리고 이러한 가상화 클라우드 환경에서 자동화 하는 솔류션을 어떻게 고려해야 하는가를 살펴보고, 그런 솔류션중에 하나인 아테나 피콕에 대해 살펴보겠습니다.
그리고 오픈스택환경하에서 구축해서 사용했던 사용기와 이를 자동화하기위해 개발자들이 사용했던 간단한 ansible provisioning 모습을 시연합니다.
[오픈소스컨설팅]클라우드자동화 및 운영효율화방안Ji-Woong Choi데이터센터 및 클라우드 환경의 설치/배포/운영 자동화 및 효율화 방안에 대한 내용을 기술합니다.
클라우드 관련 자동화 및 인프라 시스템 컨설팅을 받고 싶으시면 오픈소스컨설팅(sales@osci.kr)으로 연락주십시오.
150114 OpenStack Korea 정기세미나 session3 - OpenStack 네트워크와 SDNIan Choi2015년 1월, OpenStack Korea 커뮤니티 정기세미나 발표 - Session 3
제목: OpenStack 네트워크와 SDN
(http://onoffmix.com/event/39226)
NDC14 모바일 게임서비스를 위한 사설 클라우드 구축/운영 분투기Jinuk Kim모바일 게임 서비스를 위한 사설 클라우드를 개발/운영/디버깅 하면서 얻은 점들을 공유한다.
일반적인 하드웨어랑 오픈소스소프트웨어를 써서 사설 클라우드를 만들고 게임을 런치하면서 고생한 부분, 문제되었던 부분들을 짚어본다.
KT 안재석 박사 - 오픈 소스 기반 클라우드 컴퓨팅 솔루션 open stack 이야기 (2011Y05M28D)Ubuntu Korea Communityhttp://www.ubuntu-kr.org/viewtopic.php?f=2&t=17429
내용 :
-----------------------------------------------------------------
전반 세미나 진행 : 뻔뻔강사 님 (유명환)
우분투 한국사용자모임 대표 인사말 : 강분도 님 (강분도)
GNOME 3 이야기 : jincreator 님 (이진규)
전력선 통신(PLC) 이야기 : 포닉스 님 (이형준)
-----------------------------------------------------------------
.......... Coffee & Smoking Time (잠시 쉬어보아요!) ..........
-----------------------------------------------------------------
후반 세미나 진행 : abron 님 (김성윤)
유닉스 프로그래밍 책(4월 정기세미나 이벤트 상품) 독후감 발표 : sople1 님
오픈 소스 기반 클라우드 컴퓨팅 솔루션 OpenStack 이야기 : KT 안재석 님
임베디드 SW 와 오픈 소스의 궁합 이야기 : 뻔뻔강사 님 (유명환)
[오픈테크넷서밋2022] 국내 PaaS(Kubernetes) Best Practice 및 DevOps 환경 구축 사례.pdfOpen Source Consulting최근 금융권이나 공공기관에서는 차세대 프로젝트에 PaaS 기반 시스템을 구축하고 그 위에 마이크로서비스아키텍처(MSA)를 구현하기 위해 많은 투자를 하고 있는데요, 많은 기업들이 오픈소스 기반의 인프라를 고려할 때 기술지원이나 버전 업그레이드 등에 대한 애로사항을 겪게 됩니다. 이런 문제에 대한 해결 방안 중 하나가 바로 커뮤니티 기반의 오픈소스 재단을 홵Ӛ하는 것인데요!
본 자료에서 커뮤니티 오픈소스 기반 인프라 구축의 장점과 실제 사례에 대해 확인해 보실 수 있습니다.
[IGC 2017] 아마존 구승모 - 게임 엔진으로 서버 제작 및 운영까지강 민우멀티플레이어 게임을 서비스하는 데 필요한 게임 장르별 백엔드 아키텍처에 대한 설명해 드립니다. 기본적인 게임의 상태 동기화 개념과 서버 구성에 관한 이야기, 게임 클라이언트 엔진(Unity, Lumberyard, Unreal Engine 등)에서 제공하는 복제 프레임워크를 통하여 손쉽게 게임 서버를 만드는 방법에 대한 내용을 다룹니다. 또한, 이렇게 만들어진 게임 서버를 Amazon GameLift라는 클라우드 서비스를 통해 DevOps형태의 비용 효율적으로 서비스하는 방법에 대해 소개합니다.
Next generation cloud data center technologieshybrid cloudThis was presented at CloudInspire 2013 held by SKT & ZDNet.
Since I presented Hybrid Cloud at CloudInspire 2012, I was invited again.
DeepSeek를 통해 본 Trend (Faculty Tae Young Lee)Tae Young LeeThe document titled "Trends Observed Through DeepSeek" explores advancements in AI and reinforcement learning through the lens of DeepSeek's latest developments. It is structured into three main sections:
DeepSeek-V3
Focuses on context length extension, initially supporting 32,000 characters and later expanding to 128,000 characters.
Introduces Mixture of Experts (MoE) architecture, optimizing computational efficiency using a novel Auxiliary-Loss-Free Load Balancing strategy.
Multi-Head Latent Attention (MLA) reduces memory consumption while maintaining performance, enhancing large-scale model efficiency.
DeepSeek-R1-Zero
Explores advancements in reinforcement learning algorithms, transitioning from RLHF to GRPO (Group Relative Policy Optimization) for cost-effective optimization.
Direct Preference Optimization (DPO) enhances learning by leveraging preference-based optimization instead of traditional reward functions.
DeepSeek-R1 and Data Attribution
Discusses a Cold Start approach using high-quality data (SFT) to ensure stable initial training.
Incorporates reasoning-focused reinforcement learning, balancing logical accuracy with multilingual consistency.
Utilizes rejection sampling and data augmentation to refine AI-generated outputs for enhanced usability and safety.
The document provides a detailed analysis of these methodologies, positioning DeepSeek as a key player in AI model development and reinforcement learning.
Transitioning from the Era of Big Data to LLMs_Deriving InsightsTae Young LeeTransitioning from the Era of Big Data to LLMs: Deriving Insights
Table of Contents
Big Data and LLMs: Evolution Over Time
Definition and role of Big Data
The emergence and advancements of LLMs (Large Language Models)
Differences and connections between Big Data and LLMs
Challenges of Big Data and the Introduction of LLMs
The initial hype around Big Data and infrastructure expansion
Limitations caused by insufficient data utilization
New possibilities unlocked by the development of LLMs
Current State and Limitations of LLMs
Service innovations brought by LLMs
Gaps between expectations and reality
Data privacy and ethical challenges
Complexity in technology management
A Successful Transition from Big Data to LLMs
Creating business value through data
Shifting from domain-focused to process-oriented thinking
Developing new business models through service innovation
Future Directions for Insight Derivation
Integrating AI and data utilization
Effective approaches to derive actionable insights
Establishing real-time decision-making systems powered by LLMs
Key Messages
Limitations of Big Data: Despite the expansion of data infrastructure, many organizations struggled to translate it into actionable services or insights.
Opportunities with LLMs: LLMs have shown remarkable success in natural language processing and leveraging large-scale data, moving beyond infrastructure to create tangible business value.
Challenges Ahead: Leveraging LLMs requires addressing technical complexity, ethical considerations, and operational costs.
Path to Success: Rather than a technology-centric approach, adopting a problem-solving mindset and developing innovative processes are crucial for success.
Conclusion
The transition from Big Data to LLMs represents a paradigm shift in how data is utilized. Overcoming the challenges of LLM adoption and building a business-driven strategy will pave the way for greater insights and value creation.
This presentation explores these topics with practical examples, offering strategies for using data and AI to shape the future of business.
Facebook Meta's technical direction in Large Language Models (LLMs)Tae Young Lee
LLaMA (Large Language Model Meta AI) is a series of large language models developed by Meta (formerly Facebook), designed for natural language processing (NLP) tasks. These models are based on transformer architecture and are trained on extensive datasets, covering a wide range of topics and styles. LLaMA models come in various sizes, catering to tasks from lightweight operations to complex language understanding and generation. Meta emphasizes ethical considerations in developing LLaMA, focusing on reducing biases, ensuring safety, and enhancing transparency. These models can be applied to various NLP tasks such as text completion, question answering, and summarization, and can be fine-tuned for specific industries or needs.
FAISS (Facebook AI Similarity Search) is an open-source library developed by Meta for efficient similarity search and clustering of dense vectors. It is widely used in machine learning and AI applications requiring large-scale data processing and retrieval. FAISS is optimized for both CPU and GPU, enabling rapid processing of large datasets. It supports various indexing methods, including flat indexing, inverted indexing, and product quantization, allowing users to balance accuracy and computational efficiency. The library can scale to billions of vectors, making it suitable for extensive applications, and offers both exact and approximate search methods to trade off between speed and precision based on user needs.
FAISS is commonly used in image and text retrieval, efficiently finding similar items within large datasets, and in recommendation systems to identify similar users or products. It provides a Python API for ease of use and can be integrated with other tools and frameworks, such as PyTorch.
Both LLaMA and FAISS represent Meta's efforts to advance AI technology and its wide range of applications. LLaMA focuses on language understanding and generation, while FAISS is centered on efficient data retrieval and similarity search.
MultiModal Embedding integrates various data types, like images, text, and au...Tae Young LeeMultiModal Embedding refers to a technique used to integrate and process different types of data. "Modality" refers to the type or form of data, such as images, text, audio, etc. MultiModal Embedding maps these different modalities into a common space, allowing for the integration and correlation of diverse types of data.
Key Concepts
Integration of Different Modalities:
It transforms data from various types, such as images, text, and audio, into a common vector space. In this space, each piece of data is represented as a vector, enabling the understanding and analysis of relationships between different modalities.
Common Embedding Space:
It maps data from different modalities into a shared embedding space, allowing for comparison or combination of data across modalities. This process helps capture the features of the data effectively and understand interactions between multiple modalities.
Training and Application:
MultiModal Embedding models are typically trained on large datasets that incorporate various modalities, helping the model learn from a richer set of information. These trained models can be used in applications such as search, recommendation systems, and question-answering.
Applications
Image and Text Integration:
For tasks such as generating descriptions for images or comparing the similarity between images and text.
Multimodal Search:
For performing image searches based on text queries or extracting textual information from images.
Automatic Translation:
For performing speech recognition and translation simultaneously by integrating text and audio.
Enhanced Model Understanding:
Helps models learn more comprehensive and diverse information by leveraging various modalities.
Examples
CLIP (Contrastive Language-Image Pretraining): Developed by OpenAI, this model understands and correlates both images and text, allowing for matching tasks between the two modalities.
DALL-E: An image generation model that creates images from textual descriptions. It operates by converting text and images into a shared embedding space.
MultiModal Embedding enables the integration of diverse data types, contributing to the development of more sophisticated and useful models.
Review of the Paper on Capabilities of Gemini Models in MedicineTae Young LeeResearch Study Results for the Introduction of Gemini Models in Medicine - Review of the Paper on Capabilities of Gemini Models in Medicine
A future that integrates LLMs and LAMs (Symposium)Tae Young LeePresentation material from the IT graduate school joint event
- Korea University Graduate School of Computer Information and Communication
- Sogang University Graduate School of Information and Communication
- Sungkyunkwan University Graduate School of Information and Communication
- Yonsei University Graduate School of Engineering
- Hanyang University Graduate School of Artificial Intelligence Convergence
Exploring Deep Learning Acceleration Technology Embedded in LLMsTae Young LeeLab's research presentation
I am a doctoral student at Seoul National University of Science and Technology and am currently the head of the Applying LLMs to Various Industry (AL2VI) Lab.
LLM 모델 기반 서비스 실전 가이드Tae Young LeeReal-time seminar presentation material at the MODU-POP event on September 19, 2023 as ChatGPT Prompt Learning Research Lab Director at MODU's Lab
Recommendation System HistoryTae Young LeeCourse Overview:
This course offers a comprehensive exploration of recommender systems, focusing on both theoretical foundations and practical applications. Through a combination of lectures, hands-on exercises, and real-world case studies, you will gain a deep understanding of the key principles, methodologies, and evaluation techniques that drive effective recommendation algorithms.
Course Objectives:
Acquire a solid understanding of recommender systems, including their significance and impact in various domains.
Explore different types of recommendation algorithms, such as collaborative filtering, content-based filtering, and hybrid approaches.
Study cutting-edge techniques, including deep learning, matrix factorization, and graph-based methods, for enhanced recommendation accuracy.
Gain hands-on experience with popular recommendation frameworks and libraries, and learn how to implement and evaluate recommendation models.
Investigate advanced topics in recommender systems, such as fairness, diversity, and explainability, and their ethical implications.
Analyze and discuss real-world case studies and research papers to gain insights into the challenges and future directions of recommender systems.
Course Structure:
Introduction to Recommender Systems
Collaborative Filtering Techniques
Content-Based Filtering and Hybrid Approaches
Matrix Factorization Methods
Deep Learning for Recommender Systems
Graph-Based Recommendation Approaches
Evaluation Metrics and Experimental Design
Ethical Considerations in Recommender Systems
Fairness, Diversity, and Explainability in Recommendations
Case Studies and Research Trends
Course Delivery:
The course will be delivered through a combination of lectures, interactive discussions, hands-on coding exercises, and group projects. You will have access to state-of-the-art resources, including relevant research papers, datasets, and software tools, to enhance your learning experience.
검색엔진에 적용된 ChatGPTTae Young LeeChatGPT is a natural language processing technology developed by OpenAI. This model is based on the GPT-3 architecture and can be applied to various language tasks by training on large-scale datasets. When applied to a search engine, ChatGPT enables the implementation of an AI-based conversational system that understands user questions or queries and provides relevant information.
ChatGPT takes user questions as input and generates appropriate responses based on them. Since this model considers the context of previous conversations, it can provide more natural dialogue. Moreover, ChatGPT has been trained on diverse information from the internet, allowing it to provide practical and accurate answers to user questions.
When applying ChatGPT to a search engine, the system searches for relevant information based on the user's search query and uses ChatGPT to generate answers to present along with the search results. To do this, the search engine provides an interface that connects with ChatGPT, allowing the user's questions to be passed to the model and the answers generated by the model to be presented alongside the search results.
Ai based on gpuTae Young LeePoints to be aware of when setting up the GPU and points to be aware of when verifying performance are summarized based on the reference link (https://hiwony.tistory.com/3).
2. 2014 2015 20172016
AutoML&
AutoDraw
딥러닝을 위한
TensorFlow
Sequence Model
and the RNN API
Open Stack으로
바라보는
클라우드 플랫폼
Machine Learning
In SPAM
Python Network
Programming
Neural Network의
변천사를 통해
바라본 R에서
Deep Neural
Net홵Ӛ
Change the world
in IOT (Falinux)
Game based on
the IOT (KGC)
6. ● 서버통합
○ 데이터센터 전력 에너지와 공간 절약
● 서비스 분리
○ 서비스 분리를 위한 애플리케이션을 가상서버를 통해 분리 가능
● 빠른 서버 배포
○ 이미지 와 스냅샷을 통한 시스템 배포 및 복제 가능
● 재해복구
○ 스냅샷을 통한 가상서버 복원, VM 마이그레션으로 데이터센터 이동 가능
● 동적 로드밸런싱
○ 작업 부하에 따라 자원 사용량 조절 가능
● 빠른 개발을 위한 테스트 환경제공
○ 가상서버를 통한 빠른 테스트 환경 제공으로 개발 시간 단축
가상화의 장점
7. ● 시스템 보안 과 신뢰성 향상
○ 가상서버와 물리적 하드웨어 사이 추상화 레이어를 통한 보안 강화
● OS 독립 , 하드웨어 벤더 락-인(lock-in) 축소
○ 하드웨어 추상화를 통해 가상 하드웨어는 벤더 락-인이 제거됨
가상화의 장점
8. ● 동일한 물리적 호스트가 서로다른 작업을 가능하게 함
○ 작업은 동일한 운영체제에서 독립적으로 작동
● 컨테이너 가상화
○ 물리적 서버에 다중의 격리된 운영체제 인스턴스(컨테이너)를 실행
● 컨테이너 가상화 종류
○ Solaris 컨테이너, FreeBSD jails, Parallels OpenVZ
● 단일 시스템에서 실행
○ 프로세스 격리 와 자원 관리는 커널이 담당
○ 컨테이너는 자신의 파일시스템, 프로세스, 메모리, 디바이스가 할당됨
● 멀티 OS 실행 제한
○ 윈도우, 리눅스, 유닉스등 다중 운영체제가 실행되는 가상화가 아님
○ 단일 OS 실행으로 성능과 효율성이 뛰어남
운영체제 가상화/파티셔닝
9. ● 링 : 컴퓨터 시스템의 리소스 접근시 데이터 와 보안을 위한 장치
○ 링 0 : 커널모드 / 슈퍼 관리자 모드
○ 링 3 : 사용자 모드 / 애플리케이션 실행 모드
링 보호 (Protection Ring)
10. ● Guest OS 는 링 1 에서 실행
○ OS 권한 제약 사항을 극복하기 위해 자원이 에뮬이션 기능 사용
● 가상서버 모니터(VMM) 은 링 0 에서 실행
● 전 가상화는 x86 아키넥처에서 처음 실행됨
● 가상화 되지 않는 명령은 바이너리 변환 기술을 이용
전 가상화 (Full Virtualization)
11. ● 권한이 필요한 명령은 VMM 에 전달되어 바이너리 변환
● 바이너리 변환방식은 큰 성능 저하를 발생
● OS 의 커널 수정없이 사용 가능함
● VMM 은 CPU 를 관리하고 에뮬레이션 기능을 제공
전 가상화 (Full Virtualization)
12. ● Guest OS 링 0 에 접근 하기 위해 운영체제가 수정되어야 함
● Guest OS는 하이퍼바이저/VMM 사이에 하이퍼콜(Hypercall) 호출 실행
● 하이퍼바이저는 API를 제공
● 권한이 필요한 명령은 API 를 통해 실행 되어 링 0 에서 실행됨
반 가상화 (Para Virtualization)
13. ● Guest OS는 자신의 VM 이 가상화 되었음을 인지하고 있음
● 권한이 필요한 명령은 VMM 에 전달되기 위해 하이퍼콜 호출
● Guest OS 커널은 하이퍼콜을 통해 VMM 과 직접 통신 가능
● 바이너리 변환이 필요한 전가상화와 비교해 큰 성능 향상
● 반가상화 인지 가능한 특수한 Guest OS 커널이 필요
반 가상화 (Para Virtualization)
15. ● Intel 과 AMD 는 가상화가 x86 아키텍처의 중요 과제로 인식
● 프로세스 확장을 통한 독립적인 가상화 지원 기능 개발
○ Intel : Intel VT-x
○ AMD : AMD-V
○ Itanium : VT-i
● IA-32 명령어를 확장
○ Intel : VT(Virtualization Techonology)
○ AMD : SVM(Secure Virutal Machine)
● 하이퍼바이저와 VMM 이 Guest OS를 Ring 0 에서 실행 가능하도록 지원
● VM 을 링 0 에서 실행 가능 할 수 있도록, 하이퍼바이저 와 VMM 을 링 - 1
에서 실행함
● 기존 전가상화 기술보다 성능이 향상됨
하드웨어 가상화 지원기능
16. ● 하드웨어가 가상화를 인식
● 가상화 솔루션 개발시 복잡함을 줄여줌
● KVM 은 하드웨어 가상화 지원 기능을 사용
하드웨어 가상화 지원기능
17. ● 하이퍼 바이저/가상서버 모니터(VMM)
○ VM , Guest OS 를 관리하는 소프트 웨어
● 가상화 작업 관리
○ 가상 하드웨어 제공
○ VM 생명주기, 실시간 리소스 할당, 가상머신 정책관리
● 가상서버 모니터 (VMM)
○ Guest OS 의 자원 할당 요청을 담당
○ 프로세스, 메모리등 시스템 하드웨어 환경 설정에 의해 자원 할당됨
하이퍼바이저/가상서버 모니터(VMM)
18. ● 하이퍼바이저는 존재 위치에 따라 그 분류가 달라진다.
○ Type1 : 하드웨어 위에서 직접 실행
○ Type2 : 운영체제가 있고, 하이퍼바이저가 분리된 층에 실행
● Type1 하이퍼 바이저
○ 시스템 하드웨어와 직접 상호작용
○ 운영체제가 필요하지 않음
○ 베어메탈, 임베디드, 네이티브 하이퍼바이저라고 함
● Type2 하이퍼바이저
○ 운영체제 위에 존재
○ 다양한 변경이 가능하다
○ Hosted 하이퍼바이저
Type1 , Type2 하이퍼바이저
19. Type1 , Type2 하이퍼바이저
● 설치와 설정이 쉽다
● 사이즈가 작고 자원사용 최적화
● 부하가 작고 설치 애플리케이션이 작다
● 별도의 프로그램 및 드라이버 설치가
불가능
Type1 Type2
● 호스트 운영체제에 종속적이다.
● 광범위한 하드웨어 지원이 가능하다
20. 오픈소스 가상화 프로젝트
Project Virtualization Type Project URL
KVM (Kernel-based Virtual
Machine)
Full virtualization http://www.linux-kvm.org/
VirtualBox Full virtualization https://www.virtualbox.org/
Xen Full and paravirtualization http://www.xenproject.org/
Lguest Paravirtualization http://lguest.ozlabs.org/
UML (User Mode Linux)
http://user-mode-linux.
sourceforge.net/
Linux-VServer
http://www.linux-vserver.org/
Welcome_to_Linux-VServer.org
22. ● 케임브리지 대학 연구 프로젝트로 시작, 2003년 공개
● 2013년 4월 Linux Foundation 공동 프로젝트 로 이전
Xen
23. ● 반가상화, 전가상화, 하드웨어지원 모드 사용 가능
● Guest VM 을 도메인 이라고 부른다.
● Xen 에는 두 종류의 도메인이 존재
○ Dom 0 : 특권이 있는 도메인, 기능이 확장된 특수 Guest VM
○ Dom U : 권한이 없는 도메인, 일반 Guest VM
● Dom 0
○ VM을 만들고, 삭제하고, 관리 및 설정가능
○ 일반 Guest 시스템이 가상화 드라이버를 통해 하드웨어에 직접 접근 가능하도록 지원
○ API 인터페이스를 통한 시스템 관리기능 제공
○ 시스템에서 첫번째로 시작되는 도메인
○ Xen 프로젝트 하이퍼바이저를 위한 필수 도메인
Xen
24. ● KVM (Kernel-based Virtual Machine)
● 하드웨어 가상화 지원기능 (VT-x, AMD-V) 를 홵Ӛ한 최신 하이퍼바이저
● KVM은 KVM 커널모듈 설치로 하이퍼바이저로 변환가능
○ 리눅스 표준 커널에 KVM 커널 모듈을 추가
○ 표준 커널의 메모리 지원, 스케줄러 등을 사용가능한 장점이 있음
○ 리눅스 컴포넌트 최적화는 하이퍼바이저와 리눅스 Guest OS 둘다 이점을 갖음
● I/O 에뮬레이션을 위해 QEMU 를 사용
○ QEMU는 하드웨어 에뮬레이션을 지원하는 사용자 영역 프로그램
○ 프로세스, 디스크, 네트워크, VGA, PCI, USB, Serial/Parallel 포트 에뮬레이션
KVM
25. 리눅스는 클라우드 기반의 솔루션 개발을 위해 첫번째로 선택되어 왔다
● 아마존 EC2 클라우드는 Xen 가상화를 사용
● 디지탈오션 KVM 사용
리눅스 가상화를 사용한 오픈소스 IaaS 클라우드 소프트웨어
● 오픈스택
○ Openstack Foundation 에 의해 관리되는 오픈소스 IaaS 클라우드 솔루션
○ 몇개의 오픈소스 프로젝트 컴포넌트로 구성
○ KVM 을 기본 하이퍼바이저로 사용
● 클라우드스택
○ Apache Software Foundation 에 의해 관리되는 IaaS 클라우드 솔루션
○ 아마존 EC2/S3 API 와 호환성
○ Xen 을 기본 하이퍼바이저로 사용
● 유칼립투스
○ AWS 와 호환성을 가진 프라이빗 클라우드 소프트웨어
○ Xen, KVM 모두 지원
클라우드에서 리눅스 가상화가 제공하는것
28. 오픈스택의 기본 하이퍼바이저
KVM(Kernel Based Virtual Machine)
TYPE1(native or bare-metal)에 해당하는 하이퍼바이저
메모리 관리자는 파일 시스템 등과 같은 커널의 서브
모듈로 취급되며, KVM을 사용하기 위해서는 CPU에서
HVM(Hardware Virtual Machine) 기능을 제공해야 합니다.
HVM을 제공하는 CPU로는 x86 아키텍처의 Intel VT-x와
AMD의 AMD-v가 있습니다.
31. 가상머신의 한계
가상 머신 자체는 완전한 컴퓨터라 항상 게스트 OS를 설치해야 합니다.
그래서 이미지 안에 OS가 포함되기 때문에 이미지 용량이 커집니다.
네트워크와 인터넷 속도가 빨라졌다 하더라도 가상화 이미지를
주고받는 것은 꽤 부담스럽습니다. 특히 오픈 소스 가상화 소프트웨어는
OS를 가상화하는 것에만 초점이 맞춰져 있습니다. 그래서 이미지를
생성하고 실행하는 기능만 있을 뿐 배포와 관리 기능이 부족
32. Docker란?
Docker는 반가상화보다 좀더 경량화된 방식입니다. 그림 1-6와 같이 게스트
OS를 설치하지 않습니다. Docker 이미지에 서버 운영을 위한 프로그램과
라이브러리만 격리해서 설치할 수 있고, OS 자원(시스템 콜)은 호스트와
공유합니다. 이렇게 되면서 이미지 용량이 크게 줄어들었습니다.
Docker는 하드웨어를 가상화하는 계층이 없기 때문에 메모리 접근,
파일시스템, 네트워크 속도가 가상 머신에 비해 월등히 빠릅니다.
33. Docker는 가상 머신과는 달리 이미지 생성과 배포에 특화된 기능을 제공합니다.
Git에서 소스를 관리하는 것처럼 이미지 버전 관리 기능을 제공합니다.
또한, 중앙 관리를 위해 저장소에 이미지를 올리고, 받을 수있습니다(Push/Pull).
그리고 GitHub처럼 Docker 이미지를 공유할 수 있는 Docker Hub도 제공
합니다(GitHub처럼 유료 개인 저장소도 제공합니다).
다양한 API를 제공하기 때문에 원하는 만큼 자동화를 할 수 있어 개발과 서버
운영에 매우 유용합니다.
Docker의 장점
39. 엔비디아의 차량용 슈퍼컴퓨터 ‘드라이브 PX2’는 자율주행차용으로 개발한
‘파커(Parker)’ 프로세서와 ‘파스칼’ 아키텍처 기반 GPU가 각각 2개씩 들어간
단일 SoC(시스템 온 칩)를 탑재해 약 8TFlops의 연산능력을 갖췄다.
이를 통해 ▲차량 위치 파악 ▲안전한 운행궤도 측정 ▲360도 주변 상황 인식
등을 수행하면서 초당 약 24조 회의 딥러닝 작업 속도를 구현한다.
여기에 주변 환경을 보다 폭넓게 이해하기 위해 12개의 비디오카메라를
비롯해 레이더, 초음파 센서 등 다양한 경로에서 수집되는 정보들을 결합하는
‘센서 융합’ 기술도 홵Ӛ한다.
최신 테슬라 모델S(Tesla Model S)가 전시됐습니다. 이 모델은 DRIVE PX 2가 장착 된 최초의
시리즈 차량으로, DRIVE PX 2는 향후 소프트웨어 업데이트를 통해 완전한 자율성을
제공할 오토파일럿(AutoPilot) 시스템의 기반을 제공
Automation Car