AI

72 posts
gh skill로 에이전트 스킬 관리하기

gh skill로 에이전트 스킬 관리하기

좋아 보이는 에이전트 스킬을 동료 깃허브 저장소에서 발견해서 따라 써보고 싶은데, 막상 적용하려고 하면 막막할 때가 있죠. SKILL.md 파일을 다운로드해서 어디다 저장할지 검색하고, 의존하는 스크립트까지 같이 챙겨오고, 며칠 뒤에 원본이 업데이트되면 또 수동으로 덮어쓰고... 😅 게다가 직접 만든 스킬을 동료에게 공유할 때도 비슷한 문제가 생깁니다. 스펙에 맞게 잘 작성했는지 확인하기도 쉽지 않고, 검색이 잘 되도록 메타데이터를 챙기는 일도 신경 쓸 게 한두 가지가 아니거든요. GitHub이 이 문제를 해결하려고 GitHub

Claude Design: 클로드와 대화로 디자인부터 프로토타입까지

Claude Design: 클로드와 대화로 디자인부터 프로토타입까지

"내일 임원 보고 자료 좀 만들어 오세요." 퇴근 직전에 이런 말을 들어보신 적 있으신가요? 파워포인트를 열어 빈 슬라이드를 바라보는데 어디서부터 손을 대야 할지 막막하고, 그렇다고 디자인ㅌ`팀에 부탁하자니 일정이 빠듯하고요 😅 2026년 4월 17일 Anthropic이 공개한 Claude Design이 바로 이런 상황을 위한 도구입니다. 대화 한두 줄이면 브랜드에 어울리는 슬라이드나 프로토타입이 뚝딱 나오고, 마음에 드는 대로 슬라이더를 움직여 여백과 색을 다듬을 수 있어요. 이 글에서는 Claude Design이 무엇이고 어떤

TanStack AI: 프레임워크에 종속되지 않는 AI SDK

TanStack AI: 프레임워크에 종속되지 않는 AI SDK

AI 기능을 웹 앱에 붙이는 일이 요즘 정말 흔해졌습니다. 채팅 인터페이스를 만들거나, LLM에게 도구를 쥐여주거나, 스트리밍 응답을 화면에 뿌리거나. 그런데 막상 시작하면 고민이 생깁니다. OpenAI를 쓸지 Anthropic을 쓸지, React인지 Vue인지, Next.js인지 다른 프레임워크인지에 따라 코드가 전부 달라지거든요. TanStack Query와 TanStack Router로 유명한 TanStack 생태계에서 이 문제를 해결하려고 나온 게 바로 TanStack AI입니다. 스스로를 "AI 도구의 스위스"라고 소개할

A2A 프로토콜: AI 에이전트끼리 대화하는 표준

A2A 프로토콜: AI 에이전트끼리 대화하는 표준

AI 에이전트 하나만으로 모든 일을 처리할 수 있다면 좋겠지만, 현실은 그리 단순하지 않습니다. 기업 환경에서는 채용 담당 에이전트, 일정 관리 에이전트, 데이터 분석 에이전트처럼 각자 전문 분야가 다른 에이전트들이 따로 돌아가고 있는 경우가 많거든요. 문제는 이 에이전트들이 서로 다른 프레임워크로 만들어져서 직접 대화할 방법이 없다는 겁니다. 바로 이 문제를 해결하기 위해 Google이 내놓은 것이 A2A(Agent-to-Agent) 프로토콜입니다. 이름 그대로 AI 에이전트 간의 통신을 표준화하는 오픈 프로토콜인데요. 이 글에서

Storybook MCP로 AI에게 컴포넌트 맥락 알려주기

Storybook MCP로 AI에게 컴포넌트 맥락 알려주기

AI 코딩 에이전트에게 UI를 만들어달라고 하면 종종 난감한 결과물이 나옵니다. 프로젝트에 이미 잘 만들어둔 Button, Card, Modal 같은 컴포넌트가 있는데 에이전트는 그 존재를 모르니까 비슷한 걸 또 만들어버리는 거죠. 디자인 시스템을 열심히 구축해놨는데 AI가 인라인 스타일로 대충 때운 컴포넌트를 내놓으면 정말 답답합니다 😅 이 문제의 원인은 간단합니다. AI 에이전트에게 우리 프로젝트의 UI 컴포넌트에 대한 맥락이 없기 때문인데요. Storybook이 MCP(Model Context Protocol)를 통해 이 문

ccusage: 클로드 코드 토큰 사용량과 비용을 한눈에

ccusage: 클로드 코드 토큰 사용량과 비용을 한눈에

클로드 코드를 쓰다 보면 어느 순간 궁금해지는 게 있어요. 이번 달에 토큰을 얼마나 썼지? 비용은 얼마쯤 나왔을까? 세션 중에 /cost로 현재 비용을 확인할 수는 있는데, 지난주 월요일에 얼마를 썼는지나 프로젝트별 비용 분포는 알기 어렵죠. ccusage는 이 질문들에 답해주는 CLI 도구예요. 클로드 코드가 로컬에 남기는 세션 로그 파일을 분석해서 일별, 월별, 세션별 토큰 사용량과 비용을 테이블 형태로 보여줘요. 설치할 필요도 없이 npx 한 줄이면 바로 실행할 수 있어서 진입 장벽이 거의 없어요. 바로 실행해보기 ccusag

AI를 위한 CLI 설계: 에이전트가 쓰기 좋은 커맨드라인 도구 만들기

AI를 위한 CLI 설계: 에이전트가 쓰기 좋은 커맨드라인 도구 만들기

요즘 개발하다 보면 CLI 도구를 직접 타이핑하기보다 AI 에이전트한테 시키는 일이 부쩍 늘었습니다. 클로드 코드나 Cursor 같은 코딩 에이전트가 터미널에서 git, npm, docker, grep 같은 명령어를 알아서 실행해주니까요. 근데 가만 생각해보면 우리가 쓰는 CLI 도구 대부분은 사람이 직접 타이핑하는 걸 전제로 만들어졌어요. --help 플래그로 사용법을 찾아보고, 탭 완성으로 옵션을 탐색하고, 에러 메시지를 읽고 다시 시도하는 거죠. AI 에이전트는 이렇게 도구를 쓰지 않습니다. 문서를 읽어 이해한 뒤 명령어를 한

Claude Dispatch: 폰 하나로 내 컴퓨터에 일 시키기

Claude Dispatch: 폰 하나로 내 컴퓨터에 일 시키기

외출했는데 갑자기 "아, 그 파일 정리해놔야 했는데" 싶을 때 있잖아요. 아니면 회의 준비 자료를 미리 만들어놓고 싶은데 컴퓨터 앞에 갈 시간이 없을 때요. 이럴 때 폰으로 메시지 하나 보내면 내 데스크톱에서 Claude가 알아서 처리해주면 얼마나 좋을까요? Anthropic이 2026년 3월에 내놓은 Dispatch가 딱 이걸 해줍니다. Claude 모바일 앱에서 메시지를 보내면 내 컴퓨터에서 돌아가는 Claude가 파일을 열고 앱을 조작한 뒤 결과를 정리해서 폰으로 알려주는 거예요. 어떻게 동작하고 어떻게 쓰는 건지 하나씩 살펴

browser-use: AI 에이전트가 웹 브라우저를 자유자재로 다루는 시대

browser-use: AI 에이전트가 웹 브라우저를 자유자재로 다루는 시대

웹 브라우저 자동화라고 하면 보통 Playwright나 Selenium으로 셀렉터를 하나하나 잡아가며 스크립트를 짜는 모습이 떠오릅니다. 버튼 위치가 바뀌면 셀렉터도 고쳐야 하고, 페이지마다 로딩 타이밍이 달라서 wait_for 코드를 여기저기 넣어야 하죠. 이런 작업이 번거로워서 "AI한테 그냥 시키면 안 되나?"라고 한 번쯤 생각해보신 적 있을 겁니다. browser-use는 바로 그 발상에서 출발한 오픈소스 Python 라이브러리입니다. 자연어로 "해커뉴스에서 오늘의 인기 글 5개를 찾아줘"라고 지시하면 LLM이 직접 브라우저

Superpowers: 클로드 코드에 소프트웨어 엔지니어링 원칙을 심다

Superpowers: 클로드 코드에 소프트웨어 엔지니어링 원칙을 심다

클로드 코드에게 "이 기능 만들어줘"라고 하면 곧바로 코드를 쓰기 시작합니다. 빠르긴 한데, 가끔 불안할 때가 있어요. 테스트는 나중에 추가하려나? 설계는 괜찮은 건가? 파일이 너무 커지는 거 아닌가? 사람이 개발할 때는 자연스럽게 거치는 고민들인데, AI한테는 명시적으로 시키지 않으면 넘어가 버리는 부분이죠. Superpowers는 이런 고민을 플러그인 하나로 해결하려는 시도입니다. Jesse Vincent가 만든 이 클로드 코드 플러그인은 TDD, 체계적 디버깅, 브레인스토밍 같은 소프트웨어 엔지니어링 방법론을 Claude의 워

AWS Bedrock으로 AI 모델 사용하기

AWS Bedrock으로 AI 모델 사용하기

요즘 AI 기능을 서비스에 통합하려는 기업이 정말 많죠. 그런데 OpenAI나 Anthropic 같은 AI 제공업체의 API를 직접 쓰려면 각 업체마다 별도로 계정을 만들고 API 키를 관리해야 하고 비용 청구도 따로 받게 됩니다. 이미 AWS 인프라를 쓰고 있는 조직이라면 이게 꽤 번거로운 일이에요. AWS Bedrock은 이런 고민을 해결해주는 서비스입니다. 여러 AI 회사의 파운데이션 모델(Foundation Model)을 AWS 환경 안에서 통합된 API로 호출할 수 있게 해주거든요. 기존에 사용하던 IAM 권한 체계와 AW

클로드 코드 상태줄: 터미널 하단을 나만의 대시보드로

클로드 코드 상태줄: 터미널 하단을 나만의 대시보드로

클로드 코드로 긴 작업을 하다 보면 궁금한 게 생깁니다. 컨텍스트 윈도우를 얼마나 쓴 거지? 비용은 지금 얼마쯤 됐지? 매번 /cost나 /model을 쳐서 확인할 수 있긴 한데 작업 흐름이 끊기죠. 상태줄(statusline)은 이런 정보를 터미널 하단에 항상 띄워주는 기능입니다. 셸 스크립트 하나로 컨텍스트 사용량이나 비용, Git 브랜치 같은 걸 실시간 대시보드처럼 꾸밀 수 있어요. 한번 설정해두면 작업 흐름을 끊지 않고 세션 상태를 한눈에 파악할 수 있습니다. 상태줄이 뭔가요? 상태줄은 클로드 코드 화면 맨 아래에 붙는 커스

스펙 주도 개발: 바이브 코딩을 넘어 AI 에이전트와 일하는 법

스펙 주도 개발: 바이브 코딩을 넘어 AI 에이전트와 일하는 법

"장바구니 기능 만들어줘." 코딩 에이전트에게 이렇게 요청하면 뭔가 그럴듯한 코드가 나옵니다. 그런데 결과를 보면 내가 원했던 것과 미묘하게 다릅니다. 상품 수량 변경이 빠져 있거나 할인 적용 로직이 내 의도와 다릅니다. 합계를 계산하는 방식이 요구사항과 안 맞기도 하죠. 에이전트가 멍청한 걸까요? 아닙니다. 내가 원하는 걸 충분히 명확하게 전달하지 않은 겁니다. 이런 식으로 분위기에 맡겨 코드를 생성하는 걸 **바이브 코딩(Vibe Coding)**이라고 부릅니다. 대략적인 의도만 던지고 에이전트가 알아서 해주길 바라는 거죠. 간

Sentry MCP 서버로 AI에게 에러 디버깅 맡기기

Sentry MCP 서버로 AI에게 에러 디버깅 맡기기

Sentry로 프로덕션 에러를 모니터링하고 있으면 보통 이런 워크플로우를 반복하게 됩니다. Slack에서 에러 알림을 받고 Sentry 대시보드로 이동해서 스택 트레이스를 확인하고 관련 코드를 에디터에서 열어서 원인을 파악하고 수정 코드를 작성합니다. 이 과정에서 브라우저와 에디터를 끊임없이 왔다 갔다 하게 되는데요. 만약 코딩 중인 AI 도구에서 "이 프로젝트에서 최근에 발생한 에러 보여줘"라고 말하면 바로 이슈 목록을 가져오고 "이 에러 원인 분석해줘"라고 하면 스택 트레이스를 보고 수정 코드까지 제안해준다면 어떨까요? 🤔 S

클로드 코드의 언어 모델 선택과 추론 강도 조절

클로드 코드의 언어 모델 선택과 추론 강도 조절

클로드 코드로 작업하다 보면 가끔 이런 상황이 생깁니다. 오타 하나 고치려고 했는데 Opus가 코드베이스 전체를 분석하느라 30초를 기다린다거나, 반대로 복잡한 아키텍처 리팩토링을 맡겼는데 Haiku가 피상적인 답만 내놓는 경우요. 두 경우 모두 언어 모델과 추론 강도가 작업에 맞지 않아서 생기는 문제인데요. 클로드 코드에서 언어 모델과 추론 강도는 모든 상호작용의 품질과 속도에 가장 직접적으로 영향을 주는 설정입니다. 이 글에서는 어떤 언어 모델과 추론 강도 조합이 어떤 작업에 적합한지 그리고 상황에 따라 전환하는 방법을 하나씩

Cloudflare MCP 서버로 AI에게 인프라 관리 맡기기

Cloudflare MCP 서버로 AI에게 인프라 관리 맡기기

Cloudflare에서 Workers를 배포하고 KV에 데이터를 저장하고 D1 데이터베이스를 관리하려면 보통 Wrangler CLI를 쓰거나 대시보드에 접속해야 합니다. 그런데 이걸 AI한테 "내 Workers 목록 좀 보여줘", "KV에 이 값 저장해줘" 같은 자연어로 시킬 수 있다면 어떨까요? 🤔 Cloudflare는 자사 서비스를 AI 도구에서 바로 사용할 수 있도록 MCP(Model Context Protocol) 서버를 공식으로 제공하고 있습니다. Claude Desktop, Cursor, VS Code 같은 AI 도구에

cmux: 코딩 에이전트를 위한 터미널

cmux: 코딩 에이전트를 위한 터미널

Claude Code를 터미널에서 돌리다 보면 자연스럽게 여러 세션을 동시에 띄우게 됩니다. 하나는 프론트엔드 리팩토링을 시키고, 다른 하나는 API 테스트를 작성하게 하고, 또 다른 하나는 버그를 추적하게 하는 식이죠. 문제는 이 세션들을 관리하는 게 생각보다 귀찮다는 겁니다. Ghostty에서 분할 창을 여러 개 열어놓으면 어느 에이전트가 질문을 던지고 기다리는 중인지 눈으로 일일이 확인해야 해요. macOS 알림도 어떤 세션에서 온 건지 맥락이 부족하고요. cmux는 이 문제를 해결하려고 만들어진 터미널입니다. Ghostty의

Harness Engineering: AI 코딩 에이전트를 위한 환경 설계

Harness Engineering: AI 코딩 에이전트를 위한 환경 설계

AI 코딩 에이전트로 개발하다 보면 반복되는 경험이 하나 있습니다. 프롬프트를 아무리 잘 써봐야 에이전트가 프로젝트 맥락을 놓치고, 아키텍처는 무시한 채 엉뚱한 코드를 만들어내는 거죠. 사람이 뒤에서 계속 수습하느라 바쁩니다 😅 왜 이런 걸까요? 모델이 멍청해서? 아닙니다. 에이전트가 일할 수 있는 환경 자체가 안 갖춰져 있어서 그렇습니다. OpenAI가 최근 발표한 Harness Engineering이라는 글이 딱 이 지점을 짚는데요. 이번 글에서 그 내용을 정리해 보겠습니다. Harness란 무엇인가 Harness는 말 그대로

Cloudflare Workers AI로 서버리스 AI 추론하기

Cloudflare Workers AI로 서버리스 AI 추론하기

AI 기능을 서비스에 넣으려면 OpenAI API 키를 발급받고 서버를 세팅하고 요청을 중계하는 백엔드까지 구성해야 하잖아요. 이 과정이 꽤 번거롭고 GPU 인프라를 직접 관리하는 건 비용도 만만치 않습니다 😅 Cloudflare Workers AI를 쓰면 별도의 GPU 인프라 없이 전 세계 엣지에서 AI 모델을 바로 실행할 수 있습니다. Cloudflare Workers에 코드 몇 줄만 추가하면 텍스트 생성, 이미지 생성, 번역, 음성 인식 같은 AI 기능을 서버리스로 제공할 수 있어요. 이번 글에서는 Workers AI의 기본

WebMCP: 웹사이트를 AI 에이전트에게 열어주는 브라우저 표준

WebMCP: 웹사이트를 AI 에이전트에게 열어주는 브라우저 표준

AI 에이전트가 웹사이트에서 항공권을 검색하거나 장바구니에 상품을 담는 모습을 상상해보신 적 있나요? 지금까지 AI 에이전트가 웹사이트를 다루려면 사람처럼 DOM 요소를 찾아서 클릭하고 텍스트를 입력해야 했습니다. Playwright MCP처럼 브라우저 자동화 도구를 쓰는 방법도 있었지만 웹 페이지 구조가 바뀌면 에이전트가 길을 잃기 십상이었죠. 2026년 2월, 구글과 마이크로소프트가 함께 완전히 다른 접근법을 내놓았습니다. 웹사이트가 직접 "나한테는 이런 도구들이 있어"라고 AI 에이전트에게 알려주게 하자는 건데요. 이게 바로

Discord