PyTorch.KR / 파이토치 한국 사용자 모임
banner
pytorch.kr
PyTorch.KR / 파이토치 한국 사용자 모임
@pytorch.kr
PyTorch Korea User Group, 한국어 커뮤니티의 새로운 글을 공유합니다. 📰 #PyTorchKR #파이토치 #파이토치한국사용자모임
---
파이토치 한국 사용자 모임은 인공지능에 관심있는 분들께 PyTorch를 소개하고 함께 배우며 성장하는 것을 목표로 하고 있습니다🔥
Qwen3 쓰시나요? 1차 평가에서 압도적 1위, LG K-엑사원과 1:1 성능 비교해보세요 (무료 체험)
(by Jiwon_Park1님)

https://d.ptln.kr/8714

Qwen3 쓰시나요? 1차 평가에서 압도적 1위, LG K-엑사원과 1:1 성능 비교해보세요 (무료 체험)
어제 뉴스 보도를 보신 분들은 아시겠지만, LG AI연구원 컨소시엄 'K-엑사원(K-EXAONE)'이 정부의 'K-AI 독자 파운데이션 모델' 1차 평가서 압도적 1위를 차지하였습니다. 그동안 알리바바 Qwen3와 같은 강력한 오픈소스 모델을 사용해 오셨던 개발자분들이라면, 이제는 "국산 모델이 정말 그 정도인가?"라는 의문을 직접 확인해 볼 최적의 타이밍입니다. 🔍 K-EXAONE vs. Qwen3: 무엇이 다른가? 단순히 "K-EXAONE이 좋다"가 아닙니다. 엔지니어링 관점에서 두 모델을 직접 붙여봐야 할 이유를 정리했습니다. 실전 리즈닝(Reasoning) 성능: 엑사원 236B는 Qwen3 235B을 뛰어넘는 리즈닝 성능을 보여줍니다. Zero-Setup 전환: 두 모델 모두 OpenAI 호환 API를 사용합니다. 기존 Qwen3용 코드를 그대로 둔 채 엔드포인트 URL만 바꾸면 바로 K-엑사원의 성능을 검증할 수 ...
d.ptln.kr
January 16, 2026 at 4:36 AM
Qwen3 쓰시나요? 1차 평가에서 압도적 1위, LG K-엑사원과 1:1 성능 비교해보세요 (무료 체험)
(by Jiwon_Park1님)

https://d.ptln.kr/8713

Qwen3 쓰시나요? 1차 평가에서 압도적 1위, LG K-엑사원과 1:1 성능 비교해보세요 (무료 체험)
어제 뉴스 보도를 보신 분들은 아시겠지만, LG AI연구원 컨소시엄 'K-엑사원(K-EXAONE)'이 정부의 'K-AI 독자 파운데이션 모델' 1차 평가서 압도적 1위를 차지하였습니다. 그동안 알리바바 Qwen3와 같은 강력한 오픈소스 모델을 사용해 오셨던 개발자분들이라면, 이제는 "국산 모델이 정말 그 정도인가?"라는 의문을 직접 확인해 볼 최적의 타이밍입니다. 🔍 K-EXAONE vs. Qwen3: 무엇이 다른가? 단순히 "K-EXAONE이 좋다"가 아닙니다. 엔지니어링 관점에서 두 모델을 직접 붙여봐야 할 이유를 정리했습니다. 실전 리즈닝(Reasoning) 성능: 엑사원 236B는 Qwen3 235B을 뛰어넘는 리즈닝 성능을 보여줍니다. Zero-Setup 전환: 두 모델 모두 OpenAI 호환 API를 사용합니다. 기존 Qwen3용 코드를 그대로 둔 채 엔드포인트 URL만 바꾸면 바로 K-엑사원의 성능을 검증할 수 ...
d.ptln.kr
January 16, 2026 at 4:34 AM
[공유] 요란한 K-AI 판, 실질적인 '성능'으로 승부수 던진 LG AI K-엑사원 (1/28까지 무료 체험 팁)
(by Jiwon_Park1님)

https://d.ptln.kr/8689

[공유] 요란한 K-AI 판, 실질적인 '성능'으로 승부수 던진 LG AI K-엑사원 (1/28까지 무료 체험 팁)
최근 K-AI 독자 파운데이션 모델 선정을 앞두고 업계가 참 시끌시끌합니다. 주요 기업들의 선정 여부를 두고 여러 추측이 오가면서 정작 "그래서 개발자가 쓰기에 진짜 좋은 모델이 무엇인가?"라는 본질적인 질문은 소음 속에 묻히는 느낌인데요. 이런 와중에 LG AI 연구원 컨소시엄의 'K-EXAONE(K-엑사원)'이 프렌들리AI(FriendliAI)의 서버리스 플랫폼에 탑재되며 꽤 흥미로운 승부수를 던졌습니다. 단순한 홍보를 넘어 개발자 입장에서 주목할 만한 포인트 몇 가지를 정리해 공유합니다. 1. 2,360억 파라미터, 하지만 효율적인 MoE 아키텍처 엑사원은 2360B(2,360억)라는 거대한 파라미터급 모델임에도 불구하고 MoE(Mixture-of-Experts) 구조를 채택했습니다. 덕분에 추론 효율이 상당히 높습니다. 특히 한국어 특화 모델들의 고질적인 약점이었던 긴 문맥(Long Context) 이해와 복잡한 추론(Reasoning) 단계에서 글로벌 모델들과 견줄만한 ...
d.ptln.kr
January 14, 2026 at 9:04 AM
[공유] 요란한 K-AI 판, 실질적인 '성능'으로 승부수 던진 LG AI K-엑사원 (1/28까지 무료 체험 팁)
(by Jiwon_Park1님)

https://d.ptln.kr/8688

#ai #llm #openai #opensource
[공유] 요란한 K-AI 판, 실질적인 '성능'으로 승부수 던진 LG AI K-엑사원 (1/28까지 무료 체험 팁)
최근 K-AI 독자 파운데이션 모델 선정을 앞두고 업계가 참 시끌시끌합니다. 주요 기업들의 선정 여부를 두고 여러 추측이 오가면서 정작 "그래서 개발자가 쓰기에 진짜 좋은 모델이 무엇인가?"라는 본질적인 질문은 소음 속에 묻히는 느낌인데요. 이런 와중에 LG AI 연구원 컨소시엄의 'K-EXAONE(K-엑사원)'이 프렌들리AI(FriendliAI)의 서버리스 플랫폼에 탑재되며 꽤 흥미로운 승부수를 던졌습니다. 단순한 홍보를 넘어 개발자 입장에서 주목할 만한 포인트 몇 가지를 정리해 공유합니다. 1. 2,360억 파라미터, 하지만 효율적인 MoE 아키텍처 엑사원은 2360B(2,360억)라는 거대한 파라미터급 모델임에도 불구하고 MoE(Mixture-of-Experts) 구조를 채택했습니다. 덕분에 추론 효율이 상당히 높습니다. 특히 한국어 특화 모델들의 고질적인 약점이었던 긴 문맥(Long Context) 이해와 복잡한 추론(Reasoning) 단계에서 글로벌 모델들과 견줄만한 ...
d.ptln.kr
January 14, 2026 at 9:02 AM
안녕하세요, 삿갓조개입니다
(by limpet님)

https://d.ptln.kr/8646

안녕하세요, 삿갓조개입니다
안녕하세요, 삿갓조개입니다. 배우는 중이지만 이것저것 직접 해보며 공부하고 있습니다. 잘 부탁드립니다!
d.ptln.kr
January 11, 2026 at 11:24 AM
[코드잇] 간단한 AI•데이터 엔지니어링 인재풀 등록만으로 사례금 20만원 받아가세요 💰
(by codeit_pytorch님)

https://d.ptln.kr/8604

[코드잇] 간단한 AI•데이터 엔지니어링 인재풀 등록만으로 사례금 20만원 받아가세요 💰
안녕하세요! 고용노동부 주관 K-Digital Training(KDT) 사업을 운영 중인 코드잇입니다. 코드잇은 KDT 사업의 혁신 훈련기관으로, 현재 2026년 신규 AI 교육과정 개설을 준비하고 있는데요. 이와 관련해, AI 또는 데이터 엔지니어링 분야 현업 경력 만 3년 이상을 보유한 분들을 대상으로 **강사 인력풀 ‘예비 등록’**을 진행하고 있습니다. ✔ 실제 강의/교육 참여 의무 없음, 단순 행정 목적의 인력풀 등록 ✔ 인력풀 등록 완료 시, 사례비 20만원(세전) 지급 ✔ 향후 과정 승인 시, 희망하시는 분에 한해 협업 기회 우선 제공 혜택 관심 있으신 분들께서는 아래 구글폼 제출을 통해 간단히 참여 의사를 밝혀주시면, 순차적으로 연락을 드려 다음 절차에 대해 상세히 안내드릴 예정입니다! 👉 인력풀 예비 등록 신청 구글폼 많은 관심과 추천 부탁...
d.ptln.kr
January 6, 2026 at 10:53 AM
Gemini OCR 비용 이슈로 API 기반 대체 OCR을 찾고 있습니다 (CPU·무학습 환경)
(by danakim님)

https://d.ptln.kr/8590

Gemini OCR 비용 이슈로 API 기반 대체 OCR을 찾고 있습니다 (CPU·무학습 환경)
현재 Gemini OCR API를 사용 중인데 비용 부담이 커진 상황입니다. 이로 인해 Gemini OCR을 대체하거나 보완할 수 있는 OCR 솔루션을 찾고 있습니다. 진행해본 실험은 OCR 모델(PaddleOCR, EasyOCR, Surya)을 AWS Lambda에 직접 올려 사용하는 방향도 실험해보았습니다. 테스트 결과, CPU 환경 기준으로 이미지 1장 처리에 최소 약 15초 이상이 소요되었고, 추론 시간이 길어 실서비스에 적용하기에는 현실적인 제약이 크다는 결론에 이르렀습니다. 기본적으로 한국어 인식이 가능해야 하고, 서버는 AWS 환경에서 GPU 없이 CPU만 사용 가능한 구조입니다. 또한 모델을 직접 학습하거나 파인튜닝할 수 있는 환경이 아니어서, 별도의 학습 없이 바로 사용할 수 있는 OCR을 전제로 검토하고 있습니다. 백엔드는 FastAPI 기반으로 운영 중이며, API 형태로 연동 가능한 방식을 선호합니다.이 조건에서는 어떤 접근 방식이 가장 현실적인 선택일지 조...
d.ptln.kr
January 5, 2026 at 7:05 AM
Truthound: Zero-Configuration 데이터 검증 — 설정 없이 시작하는 데이터 품질 프레임워크
(by DONG_GYUN_SEO님)

https://d.ptln.kr/8573

Truthound: Zero-Configuration 데이터 검증 — 설정 없이 시작하는 데이터 품질 프레임워크
Truthound는 Python 기반의 포괄적인 데이터 품질 검증 프레임워크입니다. 이 프로젝트는 ML 파이프라인에서 데이터 품질을 체계적으로 검증하고 모니터링하는 데 초점을 맞추고 있으며, 275개 이상의 빌트인 검증기(Validator)와 플러그인 아키텍처를 핵심 구성 요소로 사용합니다. 최근 ML/DL 프로젝트에서 "Garbage In, Garbage Out" 문제가 여전히 빈번합니다. 모델 성능 저하의 상당 부분이 학습 데이터나 추론 입력 데이터의 품질 문제에서 기인하지만, 대부분의 팀은 ad-hoc 스크립트나 단순 assertion에 의존하고 있습니다. Truthound는 데이터 검증을 체계화하고, 특히 ML 워크플로우에서의 데이터 드리프트 감지와 피처 품질 모니터링을 위한 전문 도구를 제공합니다. Truthound vs. 기존 데이터 검증 도구 비교 Truthound의 위치를 명확히 이해하기 위해 다른 기술들과 비교해 볼 수 있습니다. Great Expectati...
d.ptln.kr
December 31, 2025 at 12:31 PM