Vibe coding과 agentic engineering의 경계가 흐려졌다
AI 코딩 도구가 좋아질수록 위험은 줄어드는 것이 아니라 보이지 않게 이동한다. 앞으로의 차별점은 코드를 직접 읽었는지가 아니라 검증 체계를 설계했는지다.
AI 뉴스를 놓치지 마세요
매주 핵심 AI 소식을 이메일로 받아보세요.
문제는 속도가 아니라 책임의 경계다
Simon Willison은 5월 6일 글 Vibe coding and agentic engineering are getting closer than I’d like에서 자신이 오래 구분해 온 두 개념이 실제 업무에서 점점 겹치고 있다고 말했다. 그가 말하는 vibe coding은 사용자가 코드를 거의 보지 않고 “작동하면 좋다”는 식으로 AI에게 맡기는 방식이다. 반대로 agentic engineering은 숙련된 엔지니어가 보안, 유지보수, 운영, 성능 기준을 가진 채 AI 도구를 활용하는 방식이다.
흥미로운 지점은 Willison이 스스로도 모든 코드를 더 이상 한 줄씩 검토하지 않는다고 인정했다는 점이다. Claude Code가 단순한 JSON API 엔드포인트, SQL 조회, 테스트와 문서를 상당히 안정적으로 만들 때, 개발자는 결과를 블랙박스처럼 취급하기 시작한다. 이는 VS Code Copilot 공동 작성 흐름이나 OpenAI Codex Labs의 엔터프라이즈 확장에서 보였던 변화와 같은 방향이다.
에이전트는 팀처럼 보이지만 평판이 없다
Willison의 비유는 큰 조직의 다른 팀이다. 이미지 리사이즈 서비스를 다른 팀이 제공하면 우리는 소스 전체를 읽지 않고 문서와 테스트된 동작을 믿고 사용한다. 문제는 AI 에이전트가 인간 팀과 달리 직업적 평판, 조직적 책임, 장기적 기억을 갖지 않는다는 점이다. Claude Code나 GitHub Copilot은 강력한 협업자처럼 보이지만, 사고가 나면 책임은 여전히 배포한 팀에 남는다.
따라서 “AI가 코드를 썼다”는 사실 자체보다 중요한 것은 어떤 안전장치로 검증했는가다. OWASP Top 10 for LLM Applications는 프롬프트 주입, 과도한 권한, 공급망 위험을 이미 주요 리스크로 다룬다. NIST SSDF는 자동 생성 코드에도 적용할 수 있는 보안 개발 프로세스의 기준점이 된다.
| 구분 | vibe coding | agentic engineering |
|---|---|---|
| 코드 검토 | 거의 하지 않음 | 위험 기반으로 선택 검토 |
| 적합한 대상 | 개인용 스크립트, 실험 | 사용자 데이터와 운영 시스템 |
| 품질 기준 | 작동 여부 중심 | 테스트, 보안, 관측성 포함 |
| 실패 책임 | 개인 피해에 가까움 | 고객과 조직 피해로 확장 |
한국 개발팀의 실무 기준
한국 스타트업과 SI 조직은 “AI로 더 빨리”라는 압박을 받기 쉽다. 하지만 AI 코딩이 실제로 생산성을 만들려면 리뷰 시간을 없애는 것이 아니라 리뷰 대상을 재배치해야 한다. 반복적인 CRUD, 타입 보강, 테스트 초안은 에이전트에게 맡길 수 있다. 대신 인증, 결제, 개인정보, 권한 상승, 데이터 삭제 같은 경계면은 사람이 설계하고 점검해야 한다.
Claude 에이전트 악성코드 거부 회귀 사례처럼 모델의 안전 행동은 버전과 맥락에 따라 달라질 수 있다. Ramp Sheets 프롬프트 인젝션이 보여준 것처럼 업무 데이터와 연결될수록 작은 자동화도 보안 사고가 된다. 결론은 명확하다. 에이전트는 더 많은 코드를 쓰게 될 것이고, 개발자는 더 많은 검증 시스템을 설계해야 한다.
FAQ
Q1. vibe coding은 항상 나쁜가?
아니다. 개인용 도구, 일회성 데이터 변환, 버려도 되는 프로토타입에는 유용하다. 다만 다른 사람의 데이터와 돈, 권한이 걸린 순간 기준이 달라진다.
Q2. 모든 AI 생성 코드를 읽어야 하나?
현실적으로 어렵다. 대신 변경 범위, 권한, 실패 비용에 따라 테스트, 정적 분석, 코드 리뷰, 샌드박스 실행 수준을 다르게 정해야 한다.
Q3. 에이전트가 팀처럼 신뢰받을 수 있나?
부분적으로는 가능하지만 인간 팀의 평판과 책임을 대체하지 못한다. 신뢰는 모델이 아니라 로그, 테스트, 롤백, 권한 분리에서 나온다.
Q4. 국내 조직은 무엇부터 해야 하나?
AI 코딩 가이드라인을 “금지/허용” 목록으로 끝내지 말고, 민감 영역별 검증 게이트와 승인자를 정의해야 한다.
관련 토픽 더 보기
📰 원본 출처
simonwillison.net이 기사는 AI 기술을 활용하여 작성되었으며, 원본 뉴스 소스를 기반으로 분석 및 해설을 추가한 콘텐츠입니다. 정확한 정보 전달을 위해 노력하고 있으나, 원본 기사를 함께 확인하시기를 권장합니다.