같은 질문인데 프롬프트만 바꿨는데 정확도가 30% 올라갔다

프롬프트중요성

“이게 진짜 되나? 프롬프트 한 줄만 추가했는데?” 처음 이 현상을 본 건 어떤 개발자의 깃허브 이슈였다. 수학 문제를 푸는 LLM의 정확도가 18%에서 57%로 올라갔다는 내용이었다. 처음엔 믿기지 않았다. 모델을 다시 학습시킨 것도 아니고, 더 큰 모델로 바꾼 것도 아닌데 어떻게 40% 가까이 올라갈 수 있을까. 하지만 더 찾아본 결과 이건 실제로 일어나는 일이었고, 지금 업계에서는 … Read more

Llama 70B와 7B의 실제 답변 품질, 10배 비싼 만큼 10배 좋을까

Llama70b_7b_품질차이

“70B 모델이 진짜 그렇게 좋아? 월 수백만 원 들여가면서까지 써야 하나?” 지난 몇 년간 오픈소스 LLM 시장은 정말 빠르게 변했다. 특히 메타의 라마 시리즈는 개발자 커뮤니티에서 엄청난 반응을 얻었는데, 여기서 가장 큰 이슈는 항상 같았다. 70B 모델이 정말 필요한 건지 아니면 13B나 7B로도 충분한지 하는 문제였다. 실제로 비용과 성능 사이에서 고민하는 팀들이 정말 많다. 급부상한 … Read more