기본 콘텐츠로 건너뛰기

라벨이 CUDA인 게시물 표시

[CUDA] 딥러닝의 필수 GPU와 CUDA

들어가기전 본문을 요약하면 아래와 같습니다. 요약을 숙지하고 본문의 내용을 관심있게 봐주시길 부탁드립니다. CUDA는 GPU를 사용한 병렬 컴퓨팅 을 위해 제공되는 S/W  플랫폼이자 API 이다. 또 Nvidia에서 생산한 GPU를 잘 돌리기위한 H/W 아키텍처이다. Tensor Core는 AI/Deep Learning 작업을 가속화 하기 위해 행렬 연산에 최적화된 GPU내의 특수한 연산 유닛 이다. RT Core는 실시간 레이트레이싱 을 가속화하기 위해 광선 추적 계산을 전용 으로 처리하는 GPU 내의 하드웨어 유닛 이다. 본 블로그에서 소개한 오차역전파 를 각 노드 별로 많은 단순 연산을 필요로 한다. 이때 흔히 직렬 연산에 강점을 둔 중앙 처리 장치 (CPU, Central Processing Unit)를 활용하면 굉장히 비효율 적이다. 대신 그래픽 처리 장치 (GPU, Graphics Processing Unit)를 사용하면 병렬 계산이 가능합니다. GP GPU 본격적인 AI시대 이전 GPU를 이용한 범용 계산(매트릭스, 벡터 연산 등)외 다른 부분은 기술적으로 많은 부분이 제한적이였다. 하지만 이제 OpenGL, DirectXL과 같은 그래픽 가속 API가 나오면서 NVIDIA, ARM등 GPU를 잘 제어할 수 있게 됬다. 단순한 연산 작업이 아니라 범용 목적의 병렬 계산 프로세서를 활용 하게 되었고 이것을 범용 목적 그래픽 처리 장치 (GP GPU, General Purpose computing on Graphics Processing Units)라고 말한다. 이런 범용 목적의 병렬 계산 프로세스를 무료로 사용할 수 있는 기술이 NVIDIA사의 쿠다(CUDA)라는 것이다. 여기서 ALU는 덧샘, 뺄샘 같은 두 숫자의 산술 연산과 배타적 논리합, 논리곱, 논리합 같은 논리연산을 계산하는 디지털 회로이며, 흔히 산술 논리 장치를 말합니다. CUDA 2006년 NVIDIA는 Fermi Architecture를 발표하며 CUDA(Computed U...