v.02 / 2026
HOME / THINKING / №042 2026.05.03
← Thinking // 042 · THINKING

80% 에이전트 코딩 시대가 왔다: Karpathy의 Claude 현장 메모

2026년 1월 말, Andrej Karpathy가 X에 짧은 스레드 하나를 올렸습니다. 제목은 “A few random notes from claude coding quite a bit last few weeks.” 수십 년 경력의 AI 연구자가 “random notes”라고 겸손하게 시작한 이 글은 곧 개발자 커뮤니티에서 빠르게 퍼졌고, 어디서나 회자되는 레퍼런스가 됐습니다.

핵심은 간단합니다. 그는 불과 두 달 사이에 코딩 방식이 뒤집혔다고 말했습니다.

“I rapidly went from about 80% manual+autocomplete coding and 20% agents in November to 80% agent coding and 20% edits+touchups.”

이걸 읽으면서 저도 비슷한 경험이 있었다는 걸 새삼 확인했습니다. 메모 삼아 Karpathy가 짚은 포인트들을 정리해 봤습니다.

패러다임 전환이 예상보다 훨씬 빠르게 왔습니다

Karpathy는 2025년 12월을 기점으로 LLM 에이전트의 코딩 역량이 “coherence threshold”를 넘었다고 표현했습니다. 단순히 자동완성 수준을 넘어서, 여러 파일에 걸친 맥락을 유지하면서 의도한 작업을 완수할 수 있게 됐다는 의미입니다.

결과적으로 워크플로우가 바뀌었습니다. 이전에는 LLM이 보조 도구였다면, 이제는 에이전트가 실질적인 구현을 맡고 사람이 검토하고 방향을 잡는 구조로 역할이 역전됐습니다.

그는 이 변화를 “20년 프로그래밍 경력 중 가장 큰 변화”라고 단언했습니다. 더 인상적인 건 “그게 몇 주 안에 일어났다”는 부분입니다. 보통 패러다임 전환은 천천히 체감되는데, 이번엔 달랐다는 거죠.

LLM 코딩의 세 가지 함정

워크플로우가 바뀌면서 새로운 종류의 문제도 생겼습니다. 이전에는 LLM이 문법 오류를 내는 게 주된 실수였다면, 이제는 판단 실수가 더 자주 발생합니다. Karpathy가 짚은 세 가지입니다.

1. 조용한 가정 (Silent Assumptions)

LLM은 불확실한 상황에서도 일단 가정을 세우고 앞으로 나아갑니다. 명확하지 않은 요구사항이 있을 때 물어보지 않고, 스스로 판단해서 진행해버리는 거죠. 결과물이 완성되고 나서야 “아, 내가 의도한 방향이 아니었구나”를 알게 되는 상황이 생깁니다.

사용자가 혼란스러워할 때 그걸 드러내지 않고, 트레이드오프를 제시하지 않고, 틀렸을 때 거슬러 올라가지 않는다는 점이 핵심 문제입니다.

2. 과도한 복잡화 (Over-Complication)

100줄로 충분한 구현을 1000줄짜리 추상화 레이어로 만들어버리는 경향이 있습니다. 불필요한 abstraction, 죽은 코드, 과한 설계가 섞여서 나오죠. 코드베이스가 복잡해질수록 이 문제는 누적됩니다.

3. 의도치 않은 수정 (Unintended Modifications)

요청한 작업과 무관한 코드나 주석을 건드리는 경우가 종종 있습니다. 충분히 이해하지 못한 코드를 수정하거나 삭제해버리는 사이드 이펙트인데, 특히 대형 코드베이스에서 눈에 띄지 않고 진행되면 위험합니다.

CLAUDE.md / Skills 파일이 반응한 이유

Karpathy의 관찰 직후, 개발자 Forrest Chang이 이 함정들을 교정하기 위한 CLAUDE.md 파일을 공개했습니다. 24시간 만에 GitHub trending 1위에 올랐고, 별이 수만 개가 쌓였습니다.

반응이 컸던 건 내용이 복잡해서가 아니라 오히려 정반대였기 때문이라고 생각합니다. 네 가지 원칙 — “가정하지 말 것”, “혼란을 숨기지 말 것”, “트레이드오프를 드러낼 것”, “목표 중심으로 실행할 것” — 이 간결하게 정리돼 있었고, 많은 개발자들이 이미 비슷한 문제를 겪고 있었던 거죠.

저도 비슷한 이유에서 이 블로그 에이전트에도 SKILL.md 형태로 동작 지침을 구조화해뒀습니다. 모델이 알아서 잘 판단해주길 바라는 것보다, 어떤 상황에서 어떻게 동작해야 하는지를 명시적으로 적어두는 편이 훨씬 안정적이더라고요.

Slopacolypse 예측

Karpathy가 이 스레드에서 가장 강하게 경고한 부분입니다. 그는 2026년을 “slopacolypse”의 해라고 불렀습니다. GitHub, arXiv, 각종 플랫폼이 저품질 AI 생성 콘텐츠로 넘쳐나게 되고, 정보 필터링 비용이 급격히 올라간다는 시나리오입니다.

코드도 마찬가지입니다. 에이전트 코딩이 쉬워질수록, 아무도 제대로 이해하지 못하는 코드베이스가 늘어날 수 있습니다. 구현의 진입장벽이 낮아지면서 품질 관리의 책임이 역설적으로 더 무거워지는 상황입니다.

“I am bracing for 2026.”

짧지만 인상에 남는 마무리였습니다.

느낌표보다 물음표가 더 많이 남는 변화

개인적으로 이 트윗이 공감됐던 건 기술적인 관찰 때문만은 아닙니다. “최고의 해”가 아니라 “버티는 해”로 프레이밍한 부분이 솔직하게 느껴졌기 때문입니다.

에이전트 코딩의 비중이 높아지는 건 분명 흥미로운 변화입니다. 하지만 동시에 무엇을 직접 이해하고, 어느 판단을 모델에게 맡길지의 경계를 계속 조정해야 하는 시기이기도 합니다. LLM이 잘 하는 일을 맡기되, 모델이 조용히 가정을 세우고 복잡하게 만들어버리지 않도록 맥락과 지침을 잘 설계하는 것 — 결국 그게 지금 가장 중요한 역량인 것 같습니다.


참고 자료

// RELATED №014 스타트업 생존 가이드 — 초기 창업자가 알아야 할 것들 [THINKING] Startup 2026.02.20 №007 사이드 프로젝트를 끝까지 완성하는 방법 [THINKING] Startup 2026.02.01 №001 Notion으로 공부 시스템 만들기 — 개발자 버전 [THINKING] Productivity 2026.01.15
목록으로