Machine Learning 영한 사전

기계학습(Machine Learning) 영문 단어를 한글로 번역하기 위한 간단한 사전입니다.

  • Accuracy : 정확도

  • Activation function : 활성화 함수

  • ADAptive GRADient descent(AdaGrad) : 적응형 경사하강법

  • ADAptive Moment estimation(Adam) : 적응형 모멘트 추정

  • Affine transformation : 어파인 변환

  • Algorithm : 알고리즘

  • Anomaly Detection : 이상 탐지

  • API Dataset API : 데이터셋

  • API Layers API : 계층

  • API Metrics API : 메트릭

  • Area under the curve(AUC) : 곡선 아래 면적

  • Artificial Neural Network : 인공신경망

  • Association Rule Learning : 연관 규칙 학습

  • Autoencoder : 오토인코더

  • Average pooling : 평균 풀링

  • Backpropagation : 오차역전파법

  • Backpropagation Through Time : 시간 기반 오차역전파법

  • Backward propagation : 역전파

  • Baseline : 기준선

  • Batch : 배치 (모델 업데이트 샘플 묶음 수)

  • Batch Learning : 배치 학습

  • Batch Nomalization : 배치 정규화

  • Batch size : 배치 크기

  • Bayesian : 베이지언

  • Bias : 편향

  • Bidirected RNN : 양방향 순환 신경망

  • Bilinear interpolation : 이중선형 보간

  • Binary classification : 이진 분류

  • Binomial Distribution : 이항분포

  • Binomial Logistic Regression : 이항 로지스틱 회귀

  • Bucketing : 버킷팅

  • Calibration layer : 교정층

  • Candidate sampling : 후보 샘플링

  • Categorical data : 범주형 데이터

  • Category : 범주

  • Central Limit Theorem : 중심 극한의 원리

  • Centroid : 중심(센트로이드)

  • Chain rule : 연쇄법칙

  • Checkpoint : 체크포인트

  • Chi-sqare : 카이제곱

  • Chi-sqare Feature Selection : 카이제곱 특성 선택법

  • Class : 범주

  • Classification : 분류

  • classification model : 분류 모델

  • Classification threshold : 분류 임계값

  • Class-imbalanced data set : 범주 불균형 데이터셋

  • Closed-form Solution : 닫힌 형태의 해

  • Clustering : 군집

  • CNN : 합성곱 신경망

  • Coefficient : 계수

  • Collaborative filtering : 협업 필터링

  • Computational Complexity : 계산 복잡도

  • Confidence Interval : 신뢰구간

  • Confidence Level : 신뢰수준

  • Confuse Matrix : 혼동 행렬

  • Confusion matrix : 혼동 행렬

  • Continuous feature : 연속 특성

  • Continuous Probability Distribution : 연속 확률 분포

  • Continuous Random Variable : 연속 확률 변수

  • Convergence : 수렴

  • Convex : 볼록

  • Convex function : 볼록 함수

  • Convex optimization : 볼록 최적화

  • Convex set : 볼록 집합

  • Convolution : 합성곱

  • Convolutional filter : 합성곱 필터

  • Convolutional layer : 합성곱층

  • Convolutional neural network : 합성곱 신경망

  • Convolutional operation : 합성곱 연산

  • Corpus : 말뭉치

  • Correlation Coefficient : 상관 계수

  • Cosine Similarity : 코사인 유사도

  • Cost : 비용

  • Cost Function : 비용 함수

  • Cross Entropy : 교차 엔트로피

  • Cross Validation : 교차 검증

  • Cross Validation Error : 교차 검증 오차

  • Cross-entropy : 크로스엔트로피

  • Cumulative Reward : 누적 보상

  • Curse of Dimensionality : 차원의 저주

  • Data analysis : 데이터 분석

  • Data augmentation : 데이터 증식

  • Data Mining : 데이터 마아닝

  • Data set : 데이터셋

  • Data Snooping Bias : 데이터 스누핑 편향

  • DataFrame : 데이터프레임

  • Dataset : 데이터셋

  • Decision boundary : 결정 경계

  • Decision Function : 결정 함수

  • Decision Tree : 결정 트리

  • Deep Belief Network : 심층 신뢰 신경망

  • Deep learning : 딥러닝

  • Deep Model : 심층 모델

  • Deep Neural Network(DNN) : 심층 신경망

  • Deep Reinforcement Learning : 심층 강화 학습ㅊ

  • Default Value : 기본값

  • Degree of Freedom : 자유도

  • Dense feature : 밀집 특성

  • Dense layer : 밀집 층

  • Density Estimation : 밀도 추정

  • Density-based clustering : 밀도 기반 클러스터링

  • Dependent Variable : 종속 변수

  • Derived feature : 파생 특성

  • Deviation : 편차

  • Device : 디바이스

  • Diagram : 그림, 도식, 도표

  • Dimensionality Reduction : 차원 축소

  • Discrete feature : 불연속 특성

  • Discrete Probability Distribution : 이산 확률 분포

  • Discrete Random Variable : 이산 확률 변수

  • Document Categorization : 문서 분류

  • Document Classification : 문서 분류

  • Document Frequency : 문서 빈도

  • Document Segmentation : 문서 세그멘테이션

  • Dot product : 스칼라 곱

  • Double Precision : 배정밀도

  • Dropout : 드롭아웃

  • Dropout regularization : 탈락 정규화

  • Dynamic model : 동적 모델

  • Early stopping : 조기 중단

  • Edge : 윤곽선

  • Edit Distance : 편집 거리

  • Element : 요소, 개체, 레코드

  • Embedding Learning : 임베딩 학습

  • Embedding : 임베딩

  • Empirical risk minimization : 경험적 위험 최소화

  • Ensemble : 앙상블

  • Ensemble learning : 앙상블 학습

  • Ensemble method : 앙상블 방법

  • Epoch : 에포크 (학습 횟수)

  • Error : 오차

  • Error Function : 오차 함수

  • Error Rate : 오차율

  • Estimate : 추정값 (추정 결과)

  • Estimation : 추정 (추정 절차)

  • Estimator : 추정량 (추정 함수)

  • Example : 사례

  • Expectation Maximization : 기댓값 최대화

  • Expected Value : 기대값

  • Expert System : 전문가 시스템

  • Exponential function : 지수 함수

  • Factor Matrix : 요인 행렬

  • False Negative : 거짓 음성

  • False Positive : 거짓 양성

  • False positive rate : 거짓 양성률

  • Feature : 특성

  • Feature column : 특성 열

  • Feature cross : 특성 조합

  • Feature Engineering : 특성 공학

  • Feature Extraction : 특성 추출

  • Feature Importance : 특성 중요도

  • Feature map : 특성 맵

  • Feature Selection : 특성 선정

  • Feature set : 특성 집합

  • Feature spec : 특성 명세

  • Few-shot learning : 퓨-샷-러닝

  • Filter : 필터

  • Forget gate : 망각 게이트

  • Full softmax : 풀 소프트맥스

  • Fully connected layer : 완전 연결층

  • Gaussian Mixture Model : 가우시안 혼합 모형

  • Generalization : 일반화

  • Generalization Error : 일반화 오차

  • Generalization linear model : 일반화 선형 모델

  • Global Minimum : 전역 최솟값

  • Gradient : 기울기

  • Gradient Ascent Method : 경사 상승법

  • Gradient clipping : 기울기 다듬기

  • Gradient descent : 기울기 하강

  • Gradient Descent Method : 경사 하강법

  • Gradient Method : 경사법

  • Gradient Vanishing : 기울기 소실

  • Graph : 그래프

  • Heuristic : 휴리스틱

  • Hidden layer : 은닉층

  • Hierarchical Clustering Analysis : 계층 군집 분석

  • Hinge loss : 경첩 손실

  • Hold-out : 홀드아웃

  • holdout data : 예비 데이터

  • Hyperparameter : 하이퍼 파라미터

  • Hyperplane : 초평면

  • Hypothesis : 가설

  • Identify function : 항등 함수

  • Image Classification : 이미지 분류

  • Image Detection : 이미지 검출

  • Imbalanced Dataset : 불균형 데이터셋

  • Incremental Learning : 점진적 학습

  • Independently and identically distributed : 독립적이고 동일한 분포

  • Inference : 추론

  • Input function : 입력 함수

  • Input Gate : 입력 게이트

  • Input layer : 입력층

  • Instance : 사례

  • Instanced-based Learning : 사례 기반 학습

  • Interpretability : 해석력

  • Inter-rater agreement : 평가자간 합의

  • Iteration : 반복

  • Jaccard Coefficient : 자카드 계수

  • Kernel : 커널

  • Kernel Support Vector Machines : 커널 서포트 벡터 머신

  • K-fold cross-validation : K겹 교차검증

  • K-Means : K-평균

  • K-Nearest Neighbors : K-최근접 이웃

  • Knowledge Discovery : 지식발견

  • Label : 레이블

  • Labeled example : 레이블된 보기

  • Labeling : 라벨링, 식별화

  • Lambda : 람다

  • Lasso Regression : 라쏘 회귀

  • Latent Factor Model : 잠재 요소 모델

  • Latent Variable : 잠재변수

  • Layer : 계층

  • Learning : 학습

  • Learning Rate : 학습률

  • Learning Rate Decay : 학습률 감소

  • Learning Schedule : 학습 스케줄

  • Least square method : 최소 자승법 (최소 제곱법)

  • Least squares regression : 최소 제곱 회귀

  • Likelihood : 가능도

  • Linear regression : 선형회귀

  • Local Minimum : 지역 최솟값

  • Locality Linear Embedding : 지역 선형 임베딩

  • Log Loss : 로그 손실

  • Logistic Regression : 로지스틱 회귀

  • Loss : 손실

  • Loss function : 손실 함수

  • Machine learning : 기계 학습

  • MAD(Mean Absolute Derivation) : 평균 절대 편차

  • MAE(Mean Absolute Error) : 평균 절대 오차

  • Manifold Learning : 매니폴드 학습

  • MAPE(Mean Absolute Percentage Error) : 평균 절대 백분비 오차

  • Margin : 간격

  • Margin Violation : 마진 오류

  • Matrix Decomposition : 행렬 분해

  • Matrix Factorization : 행렬 분해

  • Maximum likelihood method : 최대 가능도 방법

  • Mean Absolute Error : 평균 절대 오차

  • Mean Squared Error : 평균 제곱 오차

  • Metric : 메트릭 (척도, 평가지표)

  • Mini-batch : 작은 배치

  • Mini-batch stochastic gradient descent : 작은 배치 확률적 기울기 하강

  • Mixture normal distribution : 혼합 정규분포

  • Missing Value : 결측값

  • Model : 모델

  • Model function : 모델 함수

  • Model Parallelism : 모델 병렬화

  • Model training : 모델 훈련

  • Model-based Learning : 모델 기반 학습

  • Momentum : 모멘텀

  • MSE(Mean Square Error) : 평균 제곱 오차

  • Multi-class classification : 다중범주 분류

  • Multi-layer Perceptron : 다층 퍼셉트론

  • Multinomial classification : 다항 분류

  • Multinomial Logistic Regression : 다항 로지스틱 회귀

  • Multivariate regression : 다변량 회귀

  • Naive Bayes Classifier : 나이브 베이즈 분류기

  • Named Entity Resolution : 고유명사 추출

  • Native log-likelihood : 음의 로그 가능도

  • Negative class : 음성 범주

  • Neural Language Processing : 자연어 처리

  • Neural network : 신경망

  • Neuron : 뉴런

  • Node : 노드

  • Noise : 노이즈

  • Nonresponse Bias : 비응답 편향

  • Normalization : 정규화

  • Numerical data : 수치 데이터

  • Numerical differentiation : 수치 미분

  • Object Recognition : 사물 인식

  • Objective : 목적

  • Objective Function : 목적함수

  • Observed variable : 관측변수

  • OCR(Optical Character Recognition) : 광학 문자 판독기

  • Offline inference : 오프라인 추론

  • Offline Learning : 오프라인 학습

  • One-hot encoding : 원-핫 인코딩

  • One-shot learning : 원-샷-러닝

  • One-vs.-all : 일-대-다

  • Online inference : 온라인 추론

  • Online Learning : 온라인 학습

  • Operation : 연산

  • Optimal Policy : 최적 정책

  • Optimization : 최적화

  • Optimizer : 최적화기

  • Outlier : 이상치

  • Out-of-Sample Error : 외부 샘플 오류

  • Output layer : 출력층

  • Overfitting : 과적합

  • Padding : 패딩

  • Parameter : 파라미터

  • Parameter update : 파라미터 업데이트

  • Partial derivative : 편도함수

  • Partitioning strategy : 구획 전략

  • Penalty : 벌점

  • Pencentile : 백분위수

  • Perceptron : 퍼셉트론

  • Perceptron convergence theorem : 퍼셉트론 수렴 정리

  • Performance : 성능

  • Perplexity : 혼잡도

  • Pipeline : 파이프라인

  • Policy : 정책

  • Polynomial Regression : 다항식 회귀

  • Pooling : 풀링

  • Pooling Layer : 풀링 레이어

  • Population : 모집단

  • POS Tagging : 품사 테깅

  • Positive class : 양성 범주

  • Precision : 정밀도

  • Prediction : 예측

  • Prediction bias : 예측 편향

  • Predictor Variable : 예측 변수

  • Pre-trained model : 사전 학습된 모델

  • Pre-training : 선행 학습

  • Principal Component Analysis(PCA) : 주성분 분석

  • Prior belief : 사전 믿음

  • Probability : 확률

  • Problem Statement : 문제 진술

  • Projection : 투영

  • Q-Learning : 큐-러닝

  • Quartile : 사분위수

  • Queue : 큐

  • Random Forest : 랜덤 포레스트

  • Random Initialization : 무작위 초기화

  • Random Variable : 확률변수

  • Rank : 랭크

  • Rater : 평가자

  • Real-Time Recurrent Learning : 실시간 순환 학습

  • Recall : 재현율

  • Receiver Operating Characteristic(ROC) : 수신기 조작 특성

  • Recurrent Neural Network(RNN) : 순환 신경망

  • Regression : 회귀

  • Regression model : 회귀 모델

  • Regression Performance Metrics : 회귀 성능 평가 지표

  • Regularization : 정규화

  • Regularization rate : 정규화율

  • Reinforcement Learning : 강화 학습

  • ReLU function : ReLU 함수

  • Representation : 표현

  • Representation Learning : 표현 학습

  • Residual error : 잔여 오차

  • Residuals : 잔차

  • Restricted Boltzmann Machine : 제한된 볼츠만 머신

  • Reward : 보상

  • Robo Advisor : 로보 어드바이저

  • Root directory : 루트 디렉토리

  • Root Mean Square Error(RSME) : 평균 제곱근 오차

  • Rotational invariance : 회전 불변성

  • Rounding Error : 반올림 오차

  • Saddle point : 안정점

  • Sample : 사례, 표본

  • Sample Space : 표본 공간

  • Sampling Noise : 샘플링 잡음

  • Sampling Bias : 샘플링 편향

  • Scaling : 범위 조절

  • Scatter plot : 산포도, 산점도

  • Self-Organization : 자기 조직화

  • Semi-supervised Learning : 준지도 학습

  • Sequence model : 시퀀스 모델

  • Session : 세션

  • Shape : 형상

  • Sigmoid function : 시그모이드 함수

  • Signal : 시그널

  • Simularity : 유사도

  • Singular Value Decomposition : 특잇값 분해

  • Singularity : 특이점

  • Size invariance : 크기 불변성

  • Softmax : 소프트맥스

  • Sparse feature : 희박한 특성

  • Sparse representation : 희박한 표현

  • Sparsity : 희박성

  • Spatial pooling : 공간적 풀링

  • Speech Recognition : 음성 인식

  • Squared euclidean distance : 제곱 유클리드 거리

  • Squared hinge loss : 제곱 경첩 손실

  • Squared loss : 제곱 손실

  • Standard Correlation Coefficient : 표준 상관 계수

  • Standard Deviation : 표준 편차

  • Statistics : 통계량

  • Static model : 정적 모델

  • Stationarity : 정상성

  • Stationary Distribution : 정상분포

  • Step : 단계

  • Step Function : 계단 함수

  • Step size : 단계 크기

  • Stochastic gradient descent : 확률적 경사 하강법

  • Stop Words : 불용어 처리

  • Stratified sampling : 계층적 샘플링

  • Stride : 스트라이드 (커널 이동 보폭)

  • Structural risk minimization : 구조적 위험 최소화

  • Subsampling : 서브샘플링

  • Subspace : 부분차원

  • Summary : 요약

  • Supervised Learning : 지도학습

  • Supervised machine learning : 지도 기계 학습

  • Support Vector Machine(SVM) : 서포트 벡터 머신

  • Synthetic feature : 합성 특성

  • Target : 목표

  • Temporal data : 시계열 데이터

  • Temporal Difference : 시간차

  • Tensor : 텐서

  • Tensor rank : 텐서 랭크

  • Tensor shape : 텐서 형태

  • Tensor size : 텐서 크기

  • TensorBoard : 텐서보드

  • TensorFlow : 텐서플로우

  • TensorFlow Playground : 텐서플로우 플레이그라운드

  • TensorFlow Serving : 텐서플로우 서빙

  • Term Frequency : 단어 빈도

  • Test error : 테스트 오차

  • Test Set : 시험셋

  • Time series analysis : 시계열 분석

  • Time-series data : 시계열 데이터

  • Time-series forecasting : 시계열 예측

  • Token : 토큰

  • Tokenization : 토큰화

  • Tolerance : 허용 오차

  • Topic : 토픽

  • Topic Model : 토픽모델

  • Training : 학습

  • Training Data : 학습 데이터

  • Training error : 학습 오차

  • Training Instance : 학습 사례

  • Training Set : 학습셋

  • Train-Test data split : 학습-평가 데이터 나누기

  • Transfer Learning : 전이 학습

  • Translation invariance : 이동 불변성

  • Trial : 시행

  • True Negative : 참 음성

  • True Positive : 참 양성

  • True positive rate : 참 양성률

  • Underfitting : 과소적합

  • Univariate regression : 단변량 회귀

  • Unlabeled example : 레이블되지 않은 보기

  • Unsupervised Learning : 비지도 학습

  • Unsupervised machine learning : 비지도 기계 학습

  • Unsupervised pre-learning : 비지도 선행 학습

  • UV decomposition : UV 분해

  • Validation : 검증

  • Validation Set : 검증셋

  • Vanishing gradient : 기울기 소실

  • Variable : 변량, 변수

  • Variance : 분산

  • Vectorization : 벡터화

  • Visible layer : 가시 레이어

  • Visualization : 시각화

  • Vocabulary : 어휘

  • Weight : 가중치

  • Weight Decay : 가중치 감소

  • Weighted Graph : 가중 그래프

  • Whiting : 백색화

  • Wide model : 와이드 모델

  • Word Embedding : 워드 임베딩

  • Zero padding : 제로페딩

  • Zero-shot learning : 제로샷 학습

  • Z-score standardization : z-점수 표준화