본문 바로가기
728x90

transformer2

[PYTORCH] Transformer 구조 구현을 위한 3가지 핵심 라이브러리와 효율적 구축 방법 및 해결책 딥러닝 아키텍처의 패러다임을 바꾼 Transformer는 이제 NLP를 넘어 Vision, Audio, Time-series 등 모든 영역의 표준이 되었습니다. PyTorch 환경에서 이 복잡한 어텐션 기반 구조를 밑바닥부터 구현하거나, 실무 수준의 고성능 모델로 최적화할 때 반드시 알아야 할 핵심 라이브러리 활용법과 발생 가능한 문제의 해결책을 심도 있게 다룹니다.1. Transformer 구현의 중심축: torch.nn과 torch.optimPyTorch에서 Transformer를 구현할 때 가장 먼저 마주하는 것은 torch.nn.Transformer 모듈입니다. 하지만 실무에서는 단순히 이 모듈을 호출하는 것에 그치지 않고, 세부적인 Masking 처리와 Positional Encoding의 효율.. 2026. 3. 24.
[PYTHON] Scikit-learn 파이프라인 확장을 위한 2가지 커스텀 트랜스포머 구현 방법과 데이터 누수 해결< 머신러닝 프로젝트의 성패는 모델의 알고리즘만큼이나 데이터 전처리 파이프라인(Data Preprocessing Pipeline)의 견고함에 달려 있습니다. 단순히 데이터를 정제하는 것을 넘어, 전처리 과정을 모델 학습 과정과 완벽하게 통합하지 않으면 치명적인 데이터 누수(Data Leakage)가 발생하여 모델의 성능을 오염시키게 됩니다. Scikit-learn의 Pipeline은 매우 강력하지만, 기본 제공되는 StandardScaler나 OneHotEncoder만으로는 비즈니스 특화된 복잡한 로직(예: 특정 도메인 공식 적용, 텍스트 파싱 등)을 처리하기에 부족함이 있습니다. 본 가이드에서는 BaseEstimator와 TransformerMixin을 상속받아 나만의 독창적인 커스텀 트랜스포머를 설계하는.. 2026. 3. 21.
728x90