Python30 [세미나 발표] Programming Massively Parallel Processors Ch.6 Performance Considerations [CUDA] 메모리 병합, 지연 숨기기, 스레드 조대화 정리Programming Massively Parallel Processors (저자: Kirk & Hwu) Chapter 6. Performance Considerations 내용을 정리한 글이다.6.1 메모리 병합 (Memory Coalescing)DRAM의 구조적 한계병렬 프로그램의 실행 속도는 프로그램의 리소스 요구와 하드웨어의 리소스 제약 사이의 상호작용으로 결정된다. 그 중 핵심 병목은 DRAM이다.DRAM의 읽기 속도는 프로세서 연산 속도에 비해 수십 배 느리다. 이유는 물리적 구조에 있다. 데이터 비트가 커패시터(Small Capacitor)에 저장되는데, 데이터를 읽으려면 커패시터가 아주 작은 전하를 센서 라인으로 구동하고, 그 전하.. 2026. 3. 21. [세미나 발표] Programming Massively Parallel Processors Ch.2 Heterogeneous Data Parallel Computing [CUDA] 데이터 병렬성, 벡터 덧셈 커널, Thread 계층 구조 정리Programming Massively Parallel Processors (저자: Kirk & Hwu) Chapter 2. Heterogeneous Data Parallel Computing 내용을 정리한 글이다.새 책을 시작하며HOML로 머신러닝과 딥러닝의 기초를 다졌다면, 이제는 그 연산들이 내부에서 어떻게 빠르게 돌아가는지를 살펴볼 차례다. GPU가 딥러닝 연산을 빠르게 처리하는 원리는 결국 대규모 병렬 처리에 있다. Programming Massively Parallel Processors는 GPU 아키텍처와 CUDA 프로그래밍을 통해 그 원리를 깊이 파고드는 책이다. 세미나 발표를 이 책으로 이어가게 되었다.데이터 병렬성.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.19 Training and Deploying TensorFlow Models at Scale [딥러닝] TF Serving, TFLite, GPU 관리, 분산 훈련 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 19. Training and Deploying TensorFlow Models at Scale 내용을 정리한 글이다.TensorFlow Serving으로 모델 서빙TF Serving이란?TF Serving은 C++로 작성된 모델 서버다. 모델을 인프라의 나머지 부분과 분리함으로써 모델 버전을 손쉽게 교체하고 서비스를 확장할 수 있다.주요 장점은 세 가지다.높은 부하를 감당할 수 있다.여러 버전의 모델을 동시에 서비스할 수 있다.모델 저장소를 자동으로 감시하여 최신 버전을 .. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.16 Natural Language Processing with RNNs and Attention [딥러닝] NLP — Char-RNN, 감성 분석, 어텐션, 트랜스포머 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 16. Natural Language Processing with RNNs and Attention 내용을 정리한 글이다.Char-RNN으로 셰익스피어 문장 생성Char-RNN이란?Char-RNN(Character-level RNN)은 문장 내의 다음 문자(character)를 예측하도록 훈련된 RNN이다. 단어 단위가 아닌 문자 단위로 동작하기 때문에 사전에 없는 단어도 생성할 수 있다.학습 데이터셋 구성셰익스피어 희곡 전체를 다운로드하여 윈도우 단위로 잘라 데이터셋을 만.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.13 Loading and Preprocessing Data with TensorFlow [딥러닝] TF Function, tf.data API, 전이학습 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 12. Custom Models and Training with TensorFlow (p.671~679) Chapter 13. Loading and Preprocessing Data with TensorFlow (p.680~691) 내용을 정리한 글이다.TensorFlow 함수와 계산 그래프TF Function의 목표순수 Python 함수는 유연하지만 느리다. TensorFlow의 계산 그래프는 빠르지만 유연성이 떨어진다. TF Function은 이 둘의 장점을 결합한다. Pyt.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.11 [딥러닝] TensorFlow 텐서 기초 & 커스텀 손실 함수 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 11 (p.626~641) 내용을 정리한 글이다.TensorFlow를 NumPy처럼 사용하기TensorFlow의 API는 텐서(tensor)를 중심으로 동작한다. 데이터가 텐서 형태로 연산들을 따라 흘러가기 때문에 TensorFlow라는 이름이 붙었다.텐서(Tensor)란?텐서는 NumPy의 ndarray와 매우 유사한 다차원 배열이다. tf.constant()로 생성하며, shape와 dtype을 가진다.import tensorflow as tf# 텐서 생성t = tf.consta.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.13 Loading and Preprocessing Data with TensorFlow [딥러닝] 데이터 전처리 — 임베딩, 텍스트, 이미지, TFDS 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 13. Loading and Preprocessing Data with TensorFlow (p.722~740) 내용을 정리한 글이다.임베딩을 활용한 범주형 특성 인코딩원-핫 인코딩의 한계범주형 데이터를 다룰 때 원-핫 인코딩(One-Hot Encoding)을 흔히 사용한다. 하지만 범주 수가 많아지면 문제가 생긴다. 범주가 50,000개라면 50,000차원의 희소(Sparse) 벡터가 만들어지고, 대부분의 값은 0이다. 메모리와 연산 모두 비효율적이다.임베딩(Embedding)은.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.10.1 Introduction to Artificial Neural Networks with Keras [딥러닝] Keras API 3종 비교, 모델 저장, 콜백 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 10. Introduction to Artificial Neural Networks with Keras (p.506~528) 내용을 정리한 글이다.Sequential API로 회귀 MLP 구축Sequential API는 분류 문제와 회귀 문제 모두에 사용할 수 있다. 캘리포니아 주택 가격 예측 문제를 예시로 살펴본다.분류 MLP와의 차이점은 크게 세 가지다.출력 레이어에 뉴런이 1개뿐이다.출력 레이어에 활성화 함수를 사용하지 않는다. (연속값 출력)손실 함수는 MSE, 평가 지표는 RM.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.10 Introduction to Artificial Neural Networks with Keras [딥러닝] 인공 신경망 — ANN의 역사, 생물학적 뉴런, 논리 연산 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 10. Introduction to Artificial Neural Networks with Keras (p.462~471) 내용을 정리한 글이다.ANN이란?인공 신경망(Artificial Neural Network, ANN)은 인간의 뇌에 존재하는 생물학적 뉴런 네트워크에서 영감을 받은 머신러닝 모델이다. ANN은 딥러닝의 핵심이며, 유연하고 강력하며 확장 가능하다.오늘날 ANN이 실제로 풀고 있는 문제들을 보면 그 위력이 실감된다.Google Images: 수십억 장의 이.. 2026. 3. 21. [세미나 발표] Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow Ch.9 Unsupervised Learning Techniques [머신러닝] 비지도 학습 — DBSCAN, 클러스터링 알고리즘, GMM 정리Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow (Aurélien Géron) Chapter 9. Unsupervised Learning Techniques (p.436~448) 내용을 정리한 글이다.DBSCAN개념DBSCAN(Density-Based Spatial Clustering of Applications with Noise)은 클러스터를 높은 밀도 영역으로 정의하는 알고리즘이다. 클러스터 개수를 미리 지정하지 않아도 되고, 클러스터 사이가 적당히 떨어져 있을 때 잘 작동한다.동작 방식각 데이터 포인트 근처(반경 ε) 안에 있는 주변 데이터의 수를 센다. 이.. 2026. 3. 21. 이전 1 2 3 다음