Tags
5 페이지
Transformer
🤖 LLM Hallucination: 생성형 AI가 거짓말을 하는 기술적 원인 분석
🧪 NanoGPT Slowrun: 적은 데이터와 무한 Compute로 언어 모델링 실험
📚 MicroGPT: 200줄 Python 코드로 뜯어보는 Transformer 원리
🧠 Memory Caching: RNN의 메모리 한계 극복 및 장문막 이해 향상
🤖 microGPT: GPT 아키텍처 인터랙티브 시각화 가이드