David Marr's 3d modelYeshaswi6The document summarizes David Marr's 3-D model of vision from 1982. Marr proposed that vision involves converting a numerical image representation into a symbolic shape-oriented representation. This process occurs through several levels of representation, starting with the raw retinal image and proceeding to detect edges, analyze local structures, and represent illumination, orientation, and depth to construct a 3D model. The goal is to describe shapes hierarchically using volumetric and surface primitives.
3rd, 4th and 6th Cranial nervesmunnam37The document discusses cranial nerves III (oculomotor), IV (trochlear), and VI (abducens). It describes the anatomy and nuclei of each nerve, their paths through the brain and orbit, the muscles they innervate, and examples of clinical lesions that can occur. Cranial nerve III has motor functions including eye movement and parasympathetic innervation. Cranial nerve IV is the only crossed nerve and innervates the superior oblique muscle. Cranial nerve VI innervates the lateral rectus muscle and is responsible for eye abduction.
OIT to Volumetric Shadow Mapping, 101 Uses for Raster-Ordered Views using Dir...Gael HofemeierOne of the new features of DirectX 12 is Raster-Ordered Views. This adds Ordering back into Unordered Access Views, removing race conditions within a pixel shader when multiple in-flight pixels write to the same XY screen coordinates. This allows algorithms that previously required link lists of pixel data to be efficiently processed in bounded memory. The talk shows how everything from Order Independent Transparency to Volumetric shadow mapping and even post processing can benefit from using Raster-Ordered Views to provide efficient and more importantly robust solutions suitable for real-time games. The session uses a mixture of real-world examples of where these algorithms have already been implemented in games and forward-looking research to show some of the exciting possibilities that open up with this new ability coming to DirectX.
Introduction to Generative Models.pptxJOBANPREETSINGH62Generative models are machine learning models that can generate new data based on patterns in existing data. Popular examples include Generative Adversarial Networks (GANs) and Variational Autoencoders (VAEs). The document discusses different types of generative models like autoencoders, stacked autoencoders, denoising autoencoders, variational autoencoders, and GANs. It covers applications of generative models in areas like data augmentation, natural language processing, medical imaging, and more. Challenges in training generative models and ethical considerations around their use are also discussed.
MIT Camera Culture Group Update July 2009Camera Culture Group, MIT Media LabRamesh Raskar discusses his research vision for computational photography and cameras of the future. He envisions cameras that can understand scenes at a higher level than humans by producing meaningful abstractions from vast amounts of visual data. His work includes techniques like looking around corners using transient imaging, long distance barcodes, light field displays, and augmented reality. The goal is to advance both imaging hardware and computational algorithms to create an "ultimate camera" beyond the limitations of traditional photography.
Rendering Techniques in Deus Ex: Mankind DividedDz-ѴDzԳٰéThis talk provides a cohesive overview of the advanced rendering techniques developed for Deus EX: Mankind Divided. It covers a collection of diverse features, the challenges they presented, where current approaches succeed and fail, and solutions and implementation details.
“An Introduction to Data Augmentation Techniques in ML Frameworks,” a Present...Edge AI and Vision AllianceFor the full video of this presentation, please visit: https://www.edge-ai-vision.com/2021/09/an-introduction-to-data-augmentation-techniques-in-ml-frameworks-a-presentation-from-amd/
Rajy Rawther, PMTS Software Architect at AMD, presents the “Introduction to Data Augmentation Techniques in ML Frameworks” tutorial at the May 2021 Embedded Vision Summit.
Data augmentation is a set of techniques that expand the diversity of data available for training machine learning models by generating new data from existing data. This talk introduces different types of data augmentation techniques as well as their uses in various training scenarios.
Rawther explores some built-in augmentation methods in popular ML frameworks like PyTorch and TensorFlow. She also discusses some tips and tricks that are commonly used to randomly select parameters to avoid having model overfit to a particular dataset.
Convolutional Neural Networks on Graphs with Fast Localized Spectral FilteringSOYEON KIMPaper review
"Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering", NIPS 2016
알파고 (바둑 인공지능)의 작동 원리Shane (Seungwhan) Moon알파고의 작동 원리를 설명한 슬라이드입니다.
English version: http://www.slideshare.net/ShaneSeungwhanMoon/how-alphago-works
- 비전공자 분들을 위한 티저: 바둑 인공지능은 과연 어떻게 만들까요? 딥러닝 딥러닝 하는데 그게 뭘까요? 바둑 인공지능은 또 어디에 쓰일 수 있을까요?
- 전공자 분들을 위한 티저: 알파고의 main components는 재밌게도 CNN (Convolutional Neural Network), 그리고 30년 전부터 유행하던 Reinforcement learning framework와 MCTS (Monte Carlo Tree Search) 정도입니다. 새로울 게 없는 재료들이지만 적절히 활용하는 방법이 신선하네요.
Manual Solution Probability and Statistic Hayter 4th EditionRahman HakimAll of material inside is un-licence, kindly use it for educational only but please do not to commercialize it.
Based on 'ilman nafi'an, hopefully this file beneficially for you.
Thank you.
알파고 (바둑 인공지능)의 작동 원리Shane (Seungwhan) Moon알파고의 작동 원리를 설명한 슬라이드입니다.
English version: http://www.slideshare.net/ShaneSeungwhanMoon/how-alphago-works
- 비전공자 분들을 위한 티저: 바둑 인공지능은 과연 어떻게 만들까요? 딥러닝 딥러닝 하는데 그게 뭘까요? 바둑 인공지능은 또 어디에 쓰일 수 있을까요?
- 전공자 분들을 위한 티저: 알파고의 main components는 재밌게도 CNN (Convolutional Neural Network), 그리고 30년 전부터 유행하던 Reinforcement learning framework와 MCTS (Monte Carlo Tree Search) 정도입니다. 새로울 게 없는 재료들이지만 적절히 활용하는 방법이 신선하네요.
Manual Solution Probability and Statistic Hayter 4th EditionRahman HakimAll of material inside is un-licence, kindly use it for educational only but please do not to commercialize it.
Based on 'ilman nafi'an, hopefully this file beneficially for you.
Thank you.
2. 순열과 조합
순열 (Permutation)
n개 원소의 r-순열
순서가 부여된 임의의 집합을 다른 순서로 뒤섞는 연산
P(n,r) -> 서로 다른 n개의 원소 중 r개를 뽑아 한 줄로 세우는 경우의
수
P(n,r) = n!/(n-r)!
중복순열
서로 다른 원소 중 중복을 허용하여 r개를 뽑아 한 줄로 나열하는 경
우의 수
n 푟 = 푛푟
3. 순열과 조합
조합(Combination)
집합에서 일부 원소를 취해 부분집합을 만드는 것
C(n,r) -> 이항계수 : n개 원소에서 r개의 부분집합을 고르는 조합의 경우
의 수
C(n,r) =
푛!
푟!∗ 푛−푟 !
중복조합
중복을 허락하여 r개를 뽑는 경우의 수
푛퐻푟 = 퐶(푛 + 푟 − 1, 푟)
4. 표본공간과 확률
표본공간
어떤 실험의 표본공간 S는 일련의 모든 가능한 실험 결과의 집합이다.
* 벤 다이어그램 : 표본공간을 2차원으로 표현한 그림
* 상태공간 : 숫자로 구성된 표본공간
예) 6면 주사위를 던지는 실험에서 표본 공간은 {1,2,3,4,5,6} 이다.
5. 사건
사건과 여사건
사건(event) : 표본공간 S의 부분집합, 사건 A의 확률 P(A)는 사건 A에 속
하는 결과들의 확률 총합이다.
여사건(complement event) : 사건 A에 속하지 않는 표본공간 내 다른 모
든 결과들의 집합
P(A) + P(A’) = 1
예) 사건 A = {주사위 짝수}, A’ = {주사위 홀수}
6. 사건
합사건 (퐀 푩)
사건 A와 B중 적어도 한 사건이 발생하는 경우
P A 퐵 = 사건 A또는 B에 속하는 결과들의 확률의 합
곱사건 (퐀 푩)
사건 A와 B의 교집합, 두 사건에 동시에 포함되는 결과들
P(A 퐵) = 두 사건 A와 B가 동시에 발생할 확률
배반사건 (퐀 푩 = ∅)
공통의 결과가 없는 A사건과 B사건의 경우 사건 A와 B는 상호 배반(배
타적)사건이라 한다
배반사건일 때 P 퐀 푩 = 푷 푨 + 푷(푩)
7. 사건
표본공간 분할
사건 A1,A2…An에 대해
1. 임의의 Ai, Aj에 대해 서로 배반사건이고
2. A1 U A2 U … U An = S(표본공간)
일 때 A1, A2 …An 은 표본공간을 분할한다.
예) 주사위를 굴렸을 때의 표본공간 S에 대해
사건 A1 = {짝수 눈}, A2 = {홀수 눈}
A1,A2는 표본공간 S를 분할한다
8. 조건부확률과 분할표
조건부확률
사건 B가 발생했다는 조건 하에 사건 A가 발생할 확률
: 어떤 결과가 B안에 포함되고 있다면 그 결과가 사건 A안에 포함될 확
률
푃 퐴 퐵 =
푃(퐴 퐵)
푃(퐵)
* 사건 퐴 퐵 의 표본공간이 사건 퐵의 발생으로 좁혀졌다고 보면 됨
예) A와 B가 상호배반일 때 푃 퐴 퐵 =
푃(퐴 퐵)
푃 퐵
=
0
푃(퐵)
= 0
9. 조건부확률과 분할표
확률의 곱셈의 법칙
조건부 확률로부터 두 사건의 교집합은 다음과 같이 계산 가능하다
푃 퐴 퐵 = 푃(퐵) ∗ 푃 퐴 퐵
일련의 사건 A1, A2, … An의 교집합의 확률은
푃 퐴1 … 퐴푛 = 푃 퐴1 ∗ 푃 퐴2 퐴1 ∗ 푃 퐴3 퐴1 퐴2 …
∗ 푃 퐴푛 퐴1 … 퐴푛 − 1
10. 조건부확률과 분할표
독립사건
두 사건 A와 B는 P 퐴 퐵 = 푃(퐴) 일 때 상호독립사건이라고 한다.
두 사건이 상호 독립이라는 의미는 한 사건에 대한 정보가 나머지 다른
사건의 확률에 영향을 주지 않음을 나타낸다.
* B가 일어났을 경우에 A가 일어날 확률에 변화가 없음을 뜻함 : 두 사건이 다른 레이어에
있음
* 반대로 사건 A가 일어날 확률도 B가 일어날 확률에 영향을 주지 않는다.
일련의 독립사건 A1, A2, … An의 교집합의 확률은
푃 퐴1 … 퐴푛 = 푃 퐴1 ∗ 푃 퐴2 ∗ ⋯ ∗ 푃 퐴푛
11. 조건부확률과 분할표
분할표
두개의 사건에 대한 확률 표
A A’
첫번째
두번째
B ¼ ¼
B’ ¼ ¼
* 주사위를 두번 던졌을 때 결과가 짝수/홀수일 확률
12. 사후확률
전체 확률의 법칙(Law of Total Probability)
A1, … , An이 표본공간 S를 분할할 때, 표본공간 S내의 사건 B의 확률은
조건부 확률 P(B|Ai)의 가중평균으로부터 구할 수 있다. 이때 가중치는
P(Ai)가 된다.
P(B) = P(A1 B) + P(A2 B) + … + P(An B)
= 푃(퐴)푃 퐵 퐴1 + 푃(퐴)푃 퐵 퐴2 + … + 푃(퐴)푃 퐵 퐴푛
* 가중치 : 각 항의 중요도에 비례하는 계수
* 가중평균 : 각 항의 수치에 가중치를 곱한
다음 산출한 평균
13. 사후확률
사전확률
관측자가 관측을 하기 전에 가지고 있는 확률 분포를 의미,
푃 퐴 , 푃 퐵 퐴푗 =사건 A의 사전확률
사후확률
사건 B가 발생했을 때 Ai에 속할 확률 푃 퐴푖 퐵
푃 퐴푖 퐵 =
푃(퐴푖 퐵)
푃 퐵
=
푃 퐴푖 ∗ 푃(퐵|퐴푖)
푗 푃 퐴푗 ∗푃(퐵|퐴푗)