본문 바로가기
반응형

Data Science/NLP12

Probability & Loss Function Probability 사건집합(Event Set) : 모든 가능한 사건의 집합 Ω={e​1​​,e​2​​,⋯,e​D​​} 이벤트 갯수가 유한일때 : 이산(Descrete) 이벤트 갯수가 무한일때 : 연속(Continuous) 확률변수(Random Variable): 사건집합 안에 속하지만 정의되지 않은 어떤 값 확률(Probability): 사건집합에 속한 확률변수에게 어떤 값을 지정해주는 함수입니다. p(X=e​i​​) 특성(Properties) Non-negatives: p(X=e​i​​)≥0 , 확률은 비음수입니다. Unit volume: ∑​e∈Ω​​p(X=e)=1 , 모든 확률의 합은 1이 되어야 합니다. 결합확률(Joint probability): p(Y=e​j​Y​​,X=e​i​X​​) 조건.. 2022. 3. 28.
Hypothesis Set 가설 집합은 무수히 많습니다. 머신러닝 접근 방법, 모델 구조, 하이퍼파라미터등 요소를 하나씩 변화할 때 마다 가설 하나가 세워지기 때문입니다. 이번 강의 에서는 딥러닝에 한정 지어서 이야기 하겠습니다. 네트워크 아키텍처가 정해지면, 하나의 가설 집합이 됩니다. 각기 다른 가중치 매개변수 값에 따라서 가설 집합에 속한 모델이 달라집니다. 그렇다면 네트워크 아키텍처를 어떻게 정해야 할까요? 명확한 정답은 없습니다. 다만 네트워크 아키텍처가 정해지면 그 뒤부터는 모든 것이 자동화 과정으로 넘어가는데, 어떻게 이것이 가능한지 알아봅시다. 인공신경망은 무엇일까요? 비순환 그래프(DAG) 라고 할 수 있습니다. 각 노드들은 이미 Tensorflow, Pytorch 등 패키지에서 잘 정의되어 있습니다. 여러분은 이.. 2022. 3. 28.
Basic ML/DL Overview 알고리즘 vs 머신러닝 알고리즘: 어떤 문제를 푸는데 있어서 필요한 일련의 명령들입니다. 머신러닝: data-driven algorithm design 예전에는 문제가 주어졌을 때 해당 문제에 알맞는 알고리즘을 만드는 것이 일이었는데, 머신러닝에서는 실제로 문제를 특정하는 것 부터가 어렵습니다. 따라서 아래의 과정을 거칩니다. 대략적인 문제의 정의가 있습니다. 없을 때도 있습니다. 어떤 형태로든 데이터 훈련 샘플이 있습니다. 머신러닝 모델이 이 문제를 풀도록 훈련 시킵니다. 지도 학습에서 결정해야할 일 Provided N 개의 Input 과 Output 으로 구성된 훈련 샘플(Training Examples) D={(x​1​​,y​1​​),⋯,(x​N​​,y​N​​)} Loss Function: 머신러닝.. 2022. 3. 28.
반응형