딥러닝 합성곱 연산 (스트라이드, 패딩, 풀링) 알아보는 글

딥러닝 합성곱에 쓰이는 다양한 연산들 이번 글에서는 합성곱 연산 시에 모든 배열 원소가 동일한 참여도를 갖게 하는 방법을 알아보려고 합니다. 그 방법은 바로 풀 패딩입니다. 풀 패딩은 원본 배열 원소의 연산 참여량을 동일하게 합니다. 이때 패딩을 사용하는데 주로 사용되는 제로 패딩을 사용합니다. 제로 패딩은 끝과 끝을 0으로 채우는 작업을 말합니다. 이 제로 패딩의 개수를 적당하게 … Read more

근심과 걱정을 떨쳐내는 없애는 방법

걱정을 줄이는 효율적인 방법 요즘 나는 살면서 근심과 걱정이 많다. 어느새 나도 대학도 졸업하고 군대도 다녀오고 취업도 해서 돈도 벌고 있지만, 회사 생활을 하면서 일주일 7일 중에 5일을 노동에 바치며 나의 인생을 살고 있다는 것이 슬프기도 하면서 뭔가 불가항력 같은 느낌이 들고 이래서 언제 경제적으로 자유로워질 수 있을까 하는 고민이 되게 많다. 부모님이 더 늙으시기 … Read more

이미지 분류를 위한 합성곱 신경망 개념 잡고가기

합성곱 신경망 자세히 알아보기 보통 딥러닝에서 이미지를 분류한다고 했을 때 합성곱 신경망을 이용하게 됩니다. 이때 사용하는 합성곱 신경망에 대해서 자세하게 알아보려고 합니다. 이 글 하나로는 충분하지 않을 수 있지만 시작합니다. 합성곱 신경망은 완전 연결 신경망에 비해서 가중치가 훨씬 작지만 이미지 분류 문제에 더 적합하고 최적화가 되어있습니다. 합성곱, 풀링 연산, 합성곱 신경망의 구조, 케라스를 이용하는 방법 … Read more

데이터 과학자, 딥러닝과 머신러닝 전문가 연봉 및 실무 후기

데이터 과학자, 딥러닝 전문가 연봉 및 정보 요즘 뭐 다들 어디에나 AI를 적용하고 있는 것은 다들 아실 겁니다. 몇 년 전부터 딥러닝이 수면 위로 다시 떠오르게 되면서 많은 논문들이 쏟아져 나오고 있으며 기업들에서도 이를 적용하려고 많이 시도 중입니다. 저는 사실 딥러닝이나 데이터 사이언스 쪽의 전문가가 아니었지만 현재 실무자로서 이 길을 걷고 있습니다. 그렇기 때문에 실제 … Read more

YOLOv5가 공개되었습니다

2020-07-24 22:08:19 YOLOv5가 웬 말이냐 딥러닝을 접해보거나 프로젝트를 해보신 분들은 YOLO라는 것을 한 번쯤은 들어보셨을 겁니다. YOLO를 영어로 풀면 ‘YOU Only Look Once’인데 AI 엔지니어들이 가장 많이 찾는 알고리즘 중 하나입니다. 그것은 항상 실시간 객체 탐지에 대해서 가장 인기가 많은 알고리즘으로 알려져 있습니다. YOLO는 첫 출시 이후 지금까지 계속해서 버전업이 되어오고 있습니다. YOLO 이전 버전에 … Read more

딥러닝 정규화 (배치 정규화, Relu) 바로 알기

deep learning normalization(노멀라이제이션) 이번에 소개할 것은 정규화입니다. 딥러닝에서의 정규화는 항상 뜨거운 주제였습니다. 정규화를 제대로 하는 것은 여러분의 모델이 효과적으로 훈련하도록 하는 데 중요한 요소가 될 수 있지만, 이것은 들리는 것만큼 쉽지 않습니다. 예를 들어 ResNet을 미세 조정할 때 배치 정규화 계층을 어떻게 처리해야 할까요? 다중 GPU 환경에서 배치 정규화 레이어는 어떻게 될까요? 학습 중에 배치 … Read more

딥러닝 Weight Decay에 대하여

Deep learning : Decay로 과적합 줄이기 이번에 다뤄볼 주제는 다소 지루할 수 있는 주제입니다. 바로 “Weight Decay”에 대해서 알아봅니다. Weight Decay는 직역하면 “하중 감쇠” 같은 느낌이 됩니다. Weight Decay는 과적합을 억제하는 학습 기법의 하나입니다. 과적합된 학습이라는 것은 학습(훈련) 데이터에 적합하게 남아서 학습(훈련) 데이터와 다른 데이터에 대한 정답률이 낮아지는 것입니다. 과잉 학습은 중량(Weight)이 큰 값을 가짐으로써 … Read more

딥러닝 드롭아웃(dropout) 말 그대로 빼버리는 것

CNN에 드롭아웃 적용하여 과적합을 방지하자 심층 학습 뉴럴 네트워크는 몇 가지 방법으로 훈련 데이터 세트를 빠르게 초과할 수 있습니다. 서로 다른 모델 구성을 가진 뉴럴 네트워크의 결합은 과적합을 줄이는 것으로 알려져 있지만, 여러 모델을 훈련하고 유지하는 데 추가적인 컴퓨터 비용이 필요합니다. 단일 모델을 사용하여 교육 중에 노드를 임의로 삭제하여 다수의 서로 다른 네트워크 아키텍처를 갖는 … Read more

딥러닝 머신러닝 차이 비교 핵심만

딥러닝과 머신러닝의 차이점? 딥러닝과 머신러닝의 차이점은 무엇일까요? 이 둘은 얼마나 비슷하거나 다른지 비교해서 차이점을 알아보도록 하겠습니다. 머신러닝과 딥러닝은 수년간 활발한 관심을 받아 온 인공 지능(AI)의 2개 하위 집합입니다. AI 전문가의 급여는 롤스로이스 중에서도 비싼 모델의 비용과 동일하다고 뉴욕 타임스는 보도했습니다. AI로 인해 직장을 잃을 가능성이 있을까요? 최근 전문 사이트 보고서에 따르면 가능합니다. 그들은 2030년쯤에는 미국의 … Read more

딥러닝 성능 향상 기법 : 앙상블 자세히 알아보기

앙상블을 딥러닝 신경망에 적용하기 딥러닝 모델의 성능을 향상할 수 있는 여러 가지 비법이 존재합니다. 오늘은 그중에서 앙상블이라고 하는 기법에 대해서 살펴보겠습니다. 다소 지루할 수 있으나 끝까지 보신다면 대강 개념이 잡히실 것이라고 장담합니다. 그럼 시작합니다. 딥러닝 신경망은 비선형 방법입니다. 유연성이 향상되었으며 사용 가능한 교육 데이터의 양에 비례하여 확장할 수 있습니다. 이러한 유연성의 단점은 확률적인 훈련 알고리즘을 … Read more