https://www.youtube.com/watch?v=fu6-y5seQlE
description: |-
1. 이건 꼭 알아야 한다^1
[? 질문] 구글 AI 스튜디오가 “바이브코딩”을 어디까지 자동화(제품 수준)로 끌어올렸나^1
[= 답] 기존의 “프론트엔드 중심”을 넘어 풀스택 프로덕션급 앱을 프롬프트만으로 만들 수 있게 업그레이드됐고, **외부 라이브러리 설치·DB·인증(구글 로그인)·배포(클라우드 프로젝트 연동)**까지 통합 지원하는 흐름을 보여준다.^1
[? 질문] “에이전트 시대”가 온다는 말이 구체적으로 어떤 제품/기능 업데이트로 현실화되고 있나^8
[= 답] 클로드(Claude) 진영의 Dispatch(모바일에서 PC 작업 호출), Channels(텔레그램/디스코드로 지시·양방향 통신), 클라우드 기반 스케줄 실행(PC 꺼도 수행), 코덱스의 서브 에이전트(백그라운드 병렬 작업), 그리고 “AI 직원들”이 협업해 회사를 굴린다는 LIVR 같은 툴이 연속적으로 등장하며, 실제로 “여러 에이전트를 분업시키고 통합하는” 작업 방식이 실전 도구로 내려오고 있음을 보여준다.^8
[? 질문] GTC 2026에서 엔비디아가 제시한 업계의 큰 전환점은 무엇인가^18
[= 답] “학습(training) 중심”에서 “추론(inference)·토큰 효율·AI 팩토리” 중심으로 무게중심이 이동했으며, 차세대 하드웨어(예: Vera Rubin 계열)에서 토큰 효율 10배, 추론 특화 칩 전략(LPU/LPX)에서 생산(throughput) 최대 35배·비용 1/10 수준 같은 메시지로 기업들의 추론 비용/성능 게임을 가속시키는 방향을 강조했다.^18
2. 큰 그림^2
이 콘텐츠는 “이번 주 AI 업계에서 무슨 일이 있었는가”를 개발자 관점에서 빠르게 훑되, 단순 소식 나열이 아니라 바이브코딩(자연어 기반 개발)·에이전트 자동화·추론 비용 절감·모델/툴 경쟁이라는 흐름으로 연결해 설명한다.^2 구글의 AI 스튜디오/스티치 업데이트로 **만드는 행위(개발·디자인)**가 쉬워지고,^2 클로드/코덱스/오픈클로(오픈 소스 워크플로) 생태계가 **일하는 방식(원격 지시·스케줄링·분업 에이전트)**을 바꾸며,^8 엔비디아 GTC 2026은 이를 뒷받침하는 추론 인프라(칩·토큰 효율·AI 팩토리) 경쟁을 공식화한 것으로 정리한다.^18
- 구글 AI 스튜디오 풀스택화: 프롬프트만으로 프로덕션급 풀스택 앱을 만들고, DB/인증/배포까지 한 번에 가는 경험을 시연한다.^1
- 에이전트 워크플로의 대중화: 클로드의 Dispatch·Channels·클라우드 스케줄링, 코덱스의 서브 에이전트, 오픈클로 기반 자동화 사례들이 “AI에게 일을 시키는 구체적 방식”을 제품 기능으로 제공한다.^8
- 추론 비용/성능이 핵심 전장: GTC 2026의 “추론의 시대”, 토큰 효율 10배, 클로드 라우터 78% 절감 같은 이야기로 비용 최적화가 핵심 의제가 됐음을 강조한다.^18
3. 하나씩 살펴보기^1
3.1 구글 AI 스튜디오: “풀스택 바이브코딩”으로 업그레이드^1
영상은 오프닝부터 “구글 AI 스튜디오가 새로운 풀스택 바이브코딩 환경으로 업그레이드”됐다는 소식으로 시작한다.^1 진행자(조코딩)는 이전에는 구글 AI 스튜디오에서 “간단한 바이브코딩—웹사이트 프론트엔드 위주” 제작이 중심이었는데, 이제는 풀스택이 됐다고 대비한다.^1
이어서 “프롬프트만으로 프로덕션급 애플리케이션 제작이 가능”해졌고,^3 단지 코드 생성이 아니라 외부 라이브러리 설치, 데이터베이스, 인증까지 “통합 지원”한다고 말한다.^4 특히 인증은 “구글 로그인 기반”을 예로 들며, 본인 채널의 강의에서도 구현하는 데 시간이 꽤 걸렸던 기능인데 “근데 바로 된다”고 반응한다.^5
또한 프레임워크 지원도 확장되어 기존의 리액트/앵귤러뿐 아니라 Next.js까지 새로 지원해 “넥스트 JS 앱까지도 만들 수 있다”고 소개한다.^6
(1) 실제 사용 흐름: Build 메뉴에서 프롬프트만 입력^7
조코딩은 방금 직접 써봤다며 사용 흐름을 설명한다.^7
(2) 데모: “트위터 클론 만들어줘” → 글쓰기/좋아요/구글로그인/배포까지^8
그는 테스트로 “트위터 클론 만들어줘”라고 했더니 “딸깍”으로 트위터 클론이 나왔다고 말한다.^8 단순 화면만이 아니라,
그는 이런 기능이 원래 구현하려면 상당히 시간이 걸리는 작업이라고 재차 강조한다.^10
다음으로 배포/공유 측면에서 Publish를 누르면 구글 클라우드 프로젝트와 연동되어 “바로 URL로 나온다”고 설명한다.^11 시청자에게 “구글 로그인 되시는 분들은 글 써서 되는지 확인해보라”는 식으로, 실제 동작을 확인해보라고 유도한다.^11
그 과정에서 “샘플 데이터도 추가”됐고, 실제로 동작한다고 확인하며,^12 라이브 시청자가 “297명 들어와 있는데 실시간으로 달린다”며 놀란다.^13
이어 “트위터 클론 + 구글 로그인 + 글쓰기까지 들어간 것이 바로 완성”됐다고 정리한다.^14 그리고 “지금 구현한 거 440억 달러(약 55~60조)짜리를 딸깍으로 만들었다”는 식의 과장된 비유로, 제품 난이도 대비 자동화 임팩트를 강조한다.^15
(3) 내부적으로 무엇을 했나: 기능 정의 → AI가 프론트 작성, 오류 수정, 퍼블리시까지^16
조코딩은 프론트엔드도 “AI로 프론트 짠 것”이며,^16 본인이 “이거 넣어달라”는 식으로 기능 정의를 하면 알아서 만들어 준다고 설명한다.^16 중간에 오류가 나면 “오류 난 거 계산해” 같은 요청을 하고, 퍼블리시 가능하도록 해달라고 하면 바로 됐다고 말한다.^16
그리고 이 과정이 “구글 제미나이 3 플래시”로 이루어진다고 언급하며, “프로(상위 모델)로 만든 것도 아니고 플래시만으로도 이런 게 나와버린다”고 모델 성능/가성비 포인트를 찍는다.^17
(4) 시장 영향 코멘트: 러버블/레플릿과 경쟁, 구글 생태계의 흡수 가능성^18
그는 러버블(Lovable), 레플릿(Replit) 같은 바이브코딩/앱 빌더 서비스가 떠오르는데, 구글 클라우드 생태계가 워낙 잘 되어 있어 “바로 연동”되는 순간 “구글이 바이브코딩 시장을 다 잡아먹지 않을까?”라고 전망성 코멘트를 한다.^18
3.2 구글 Stitch: 자연어·음성으로 “바이브 디자인” + 디자인 시스템 자동 생성^19
조코딩은 “개발해서 끝”이 아니라, 구글의 “AI 네이티브 바이브 디자인 플랫폼 스티치(Stitch)”가 새롭게 업그레이드됐다고 전한다.^19 핵심은 자연어로 고품질 UI 디자인을 진행할 수 있고, “말로도(음성) 할 수 있게 됐다”는 점이다.^20
(1) 자연어로 랜딩 페이지 디자인 → 디자이너급 결과물^21
“랜딩 페이지 디자인”을 입력하자 전문 디자이너가 만든 듯한 “멋진 디자인”이 바로 나온다고 묘사한다.^21 여기서 중요한 포인트로 “그냥 디자인이 나오는 게 아니라 디자인 시스템 자체를 만들어 버린다”고 말한다.^22
- 폰트, 컬러 등 구성요소를 정리한 디자인 시스템이 먼저 생성되고^22
- 그 기반 위에 실제 페이지 디자인이 적용되며^23
- 디자인 시스템을 바꾸면 전체 적용이 싹 바뀌는 모습을 보여준다.^23
(2) 프로토타입/상호작용 + 음성 모드(자비스처럼 대화)^24
스티치는 정적인 화면이 아니라 “프로토타입도 된다”고 하며 상호작용까지 지원한다고 소개한다.^24
또한 “보이스 음성 입력도 된다”고 하면서 “음성 모드”를 켜면 아이언맨의 자비스처럼 “얘기하면서 바이브 디자인”을 할 수 있다고 말한다.^24
(3) 사용자 사례 언급: 스티치 vs 클로드 결과 비교 느낌^25
조코딩은 사용자 사례를 보며 왼쪽이 구글 스티치 결과, 다른 한쪽은 클로드로 만들었다는 식의 비교 맥락을 언급하고, 특히 글씨/타이포가 멋지게 나오는 느낌이 있다고 반응한다.^25
(4) 직접 데모: “조코딩 소개 모던 웹사이트” → 정보 자동 수집/구성 + 음성 수정 시도^26
조코딩은 “조코딩을 소개하는 모던하고 멋진 웹사이트 만들어줘”라고 프롬프트를 주고 앱 형태로 만들어본다.^26 그러자 먼저 색상 팔레트부터 만들고 시작하더라고 말하며, 역시 디자인 시스템 생성이 기본 흐름임을 재확인한다.^26
결과물에는 조코딩 관련 정보(프로덕트 빌더, 동물상 테스트, 순다 피차이 인터뷰 등)가 포함되는데, 그는 “인터넷에서 내 정보를 가져왔나 보다”라고 추정한다.^27
그 다음 “인터랙티브하게 소통하면서 디자인 수정”이 가능하다고 하며,^28 음성으로 “색깔 좀 바꿔봐”라고 말하자 시스템이 “어떤 색다른 바이브?”를 묻고,[^29] 조코딩이 “사이버펑크”를 말하면 “어두운 배경 + 강렬한 네온 컬러”로 바꾸겠다고 응답한다.[^30]
다만 바뀐 결과가 “형광으로 나오는데 구리게 나온다”며 프롬프트를 잘 넣어야겠다는 실사용 교훈을 덧붙인다.[^31]
마지막에 그는 “풀스택 웹 개발 + 바이브 디자인”까지 진행되는 흐름을 보여줬고, “구글 생태계의 접점이 강력해지고 있다”고 총평한다.[^32]
3.3 파이어베이스 스튜디오(Firebase Studio) 종료/마이그레이션: 구글 서비스 종료 문화 언급[^33]
구글 AI 스튜디오가 좋아지다 보니 연관 소식으로 “마이그레이트 파이어베이스 스튜디오 프로젝트” 이야기가 나오며, 파이어베이스 스튜디오가 “이제 종료가 얼마 안 남았다”고 전한다.[^33]
그는 2027년까지 “풀스택 AI 워크스페이스(클라우드 기반 AI 개발 환경)”로 진행했던 서비스인데, 기능이 겹쳐서 “AI 스튜디오 자체를 더 밀려는 게 아닐까”라고 추측한다.[^34] 또한 방향성은 “개발 지식을 아무것도 모르는 분들도 접근”할 수 있는 쪽으로 가는 것 같다고 말한다.[^35]
안내는 “마이그레이션 하라”는 형태로 제공되고 있다고 설명한다.[^36]
여기서 구글이 서비스를 자주 종료한다는 맥락으로 “Killed by Google”이라는 웹사이트(구글 종료 서비스 목록)까지 언급하며, 파이어베이스 스튜디오도 거기에 추가될 것 같다고 말한다.[^37]
3.4 구글 드라이브 문서 스캐너 개선: 페이지 넘기면 자동 등록[^38]
구글 관련 추가 소식으로 “구글 드라이브 문서 스캐너가 좋아졌다”고 소개한다.[^38]
구글 드라이브에서 카메라로 스캔을 켜놓고 문서를 넘기기만 하면, 페이지가 “자동으로 등록”된다고 한다.[^39] 기존에 스캐너 앱이 많았는데, 이런 기능이 들어오면 그 앱들을 “싹 박살”냈다는 식으로 표현하며, 이제는 “구글 드라이브만으로도 스캐닝이 바로 가능”하다고 평가한다.[^40]
3.5 클로드(Cowork/Code) 업데이트: Dispatch(모바일 원격), Channels(메신저 지시), 클라우드 스케줄링[^41]
조코딩은 “클로드 기능 업데이트 속도가 어마어마”하다고 말하며 본격적으로 클로드 쪽 업데이트를 소개한다.[^41]
(1) Dispatch: PC 작업을 휴대폰으로 “들고 오는” 기능[^42]
“클로드 코워크”는 클로드를 PC에서 쓰는 협업/작업 환경으로 이해하면 되는데, 여기에 Dispatch 기능이 추가됐다고 한다.[^42]
핵심은 PC에서 하던 작업을 “휴대폰으로 들고 오는” 느낌으로, 예를 들면 “다운로드 폴더에 있는 랜딩페이지 프로포절 PPT를 열고 키포인트 가져와줘” 같은 지시를 하면 PC와 연결되어 파일을 열고 정보를 가져오는 형태라는 것이다.[^43]
조코딩은 이를 “오픈 클로 메신저로 소통도 할 수 있는데 이제 클로드 앱에서 Dispatch 기능으로 이용”한다고 설명한다.[^44]
결론적으로 데스크톱과 휴대폰을 연결하면 “원격에서 내 컴퓨터를 조작하면서 AI가 내 파일을 뒤져 알려줄 수 있는” 그림이 된다고 정리한다.[^45]
(2) Channels: 텔레그램/디스코드로 클로드 코드에 메시지 보내 작업 지시[^46]
이어서 **클로드 코드 채널스(Channels)**라는 기능이 새로 나왔다고 소개한다.[^46]
이는 외부 메신저(텔레그램, 디스코드 등)를 통해 클로드 코드에 메시지를 보내 작업을 지시하는 기능이며 “양방향 통신”이라고 강조한다.[^47] 즉 PC에서 클로드를 띄워두고, 스마트폰에서 텔레그램/디스코드로 시키면 PC에서 작업을 수행하고 다시 답장하는 형태가 가능해진다고 설명한다.[^48]
조코딩은 오픈 클로가 잘 되니까 주요 AI 기업들이 이런 흐름을 적용한다고 덧붙인다.[^49]
(3) 클라우드 기반 작업 예약: PC 꺼도 돌아가는 스케줄 테스크[^50]
또 하나는 클로드 코드에서 “클라우드 기반으로 작업을 예약”할 수 있게 됐다는 소식이다.[^50]
원래도 스케줄링이 있었지만 “내 PC에서 반복 작업”을 하는 수준이었다면, 이제는 “아예 클라우드에서 돌아가도록” 할 수 있어 PC를 꺼도 동작하며 작업 수행이 가능하다고 말한다.[^50]
예시로 “풀 리퀘스트(레퍼런스/리뷰)를 정기적으로 검사” 같은 작업을 스케줄에 등록해두면 클라우드에서 알아서 실행한다고 설명한다.[^51]
3.6 Y Combinator CEO의 클로드 코드 셋업 공개: 제품 출시 전 과정을 ‘스킬’로 패키징[^52]
조코딩은 실리콘밸리 VC 업계에서 유명한 Y Combinator의 CEO “게리 탄(Garry Tan)”이 클로드 코드를 사용하는 셋업을 공개했다고 전한다.[^52]
그는 수많은 초기 스타트업을 검토/투자한 사람이라 “새로운 거 출시 노하우”가 축적돼 있을 텐데, 그것을 스킬 형태로 만들었다고 설명한다.[^53]
조코딩이 제시하는 단계 흐름은 다음과 같은 “제품 출시 전 과정”이다.[^54]
- 생각(Think)
- 계획(Plan)
- 구축(Build)
- 검토(Review)
- 테스트(Test)
- 출시(Launch)
- 성찰(Reflect)
또한 “오피스 아워”, “CEO/창립자 리뷰”, “엔지니어링 매니저”, “수석 디자이너”, “디자인 파트너”, “수석 엔지니어”, “디버거” 등 YC에서 수행하는 역할/피드백을 스킬로 녹여 “YC 피드백 받으며 만드는 것처럼” 서비스를 만들어볼 수 있다고 말한다.[^55]
조코딩은 이런 식으로 스킬이 많아지고 있으며, 기본 클로드 코드가 못 하는 것들은 스킬을 다운받아 수행력을 높일 수 있다고 정리한다.[^56]
3.7 코덱스(Codex) 서브 에이전트: 병렬 작업·컨텍스트 분리·토큰 비용 트레이드오프[^57]
다음 소식은 코덱스에서 서브 에이전트 지원이 시작됐다는 것이다.[^57] 조코딩은 구조를 다음처럼 설명한다.[^58]
- 메인 에이전트가 있고
- “세 개의 백그라운드 에이전트” 같은 서브 에이전트를 소환해 각각 작업시키고
- 결과를 통합해 메인 에이전트가 종합 결론을 내는 방식
그는 이렇게 하면 “훨씬 빠르다”고 말한다.[^58]
(1) 컨텍스트 절약 논리[^59]
조코딩은 1개 에이전트로만 하면 컨텍스트가 빨리 차는데, 서브 에이전트는 각자 컨텍스트를 따로 가지므로 넉넉하게 쓸 수 있어 “컨텍스트 낭비를 안 한다”고 설명한다.[^59]
(2) 비용(토큰) 증가 경고[^60]
대신 “토큰 사용량은 확 늘어난다”고 말하며, 서브 에이전트는 토큰을 “팍팍 소모하면서 많은 작업”을 시키는 방식이 될 수 있다고 한다.[^60]
(3) 사용 팁: 명령에 ‘서브 에이전트’라고 명시해야 호출됨[^61]
본인이 써본 경험으로, 하위 에이전트를 쓰려면 일부러 명령어에 “서브 에이전트”라는 말을 넣어야 하고, 기본으로는 잘 안 불러와진다고 팁을 준다.[^61]
(4) 바이럴 레포: Codex Sub-Agent Collection (GitHub)과 역할 분업 상상[^62]
“코덱스 서브 에이전트 컬렉션”이라는 깃허브 레포가 화제가 됐다며, API 디자이너, 백엔드 개발자 등 다양한 에이전트를 정의해두고 필요할 때 불러 쓰는 형태를 소개한다.[^62]
그는 이런 서브 에이전트를 “싹 다 불러 동시에 작업”시키면 풀스택 서비스도 모아서 만들 수 있을 것 같다고 상상하며, “AI 에이전트 시대가 본격적으로 온 것 같다”고 말한다.[^63] 또한 이런 개념이 이론이 아니라 “당장 써먹을 수 있는 개념”이라고 강조한다.[^64]
3.8 오픈AI: 5.4 미니/나노(가성비) + 프론트엔드 디자인 팁/스킬 + “AI 슈퍼앱” 방향[^65]
조코딩은 오픈AI가 작은 모델도 공개했다고 전한다.[^65]
- 5.4가 성능 높은 모델이라면
- **미니(mini)**와 나노(nano) 모델을 새로 공개해 “더 싸게 쓸 수 있는 모델”이라는 포지션이라는 것이다.[^65]
(1) 작은데 성능이 생각보다 높다: 개발 벤치에서 큰 차이 없음[^66]
그는 작은 모델이면 성능이 떨어질 줄 알았는데 꽤 높다고 말한다.[^66] 소프트웨어 엔지니어/벤치프로 같은 “개발 능력 벤치마크”에서 5.4X 하이 대비 미니/나노가 “별 차이가 안 난다”고 설명한다.[^66]
GPT-5와 비교하면 차이가 꽤 나는데, 미니/나노는 큰 차이가 아니라서 “싸게 쓰고 싶다”면 개발 전략으로 괜찮을 수 있다고 말한다.[^67]
(2) GPT 5.4로 세련된 프론트엔드 디자인하기: 공식 블로그 팁/안내문구 제공[^68]
오픈AI가 공개한 블로그 글이 화제라며, 프론트엔드 디자인을 잘하기 위한 팁을 안내 문구(프롬프트)까지 제공한다고 한다.[^68] 이를 복사해 GPT 5.4에게 코딩을 시킬 때 넣으면 더 예쁘게 만들 수 있다는 논리다.[^69]
또한 디자인 원칙을 제공하고 “스킬로도 제공”해 코덱스 앱에서 프론트엔드 스킬을 설치하면 깔끔한 랜딩 페이지를 만드는 데 도움이 된다고 설명한다.[^70]
(3) 다음 행보: 챗GPT·코덱스·브라우저 통합 “AI 슈퍼앱”[^71]
조코딩은 오픈AI의 다음 행보로 “챗GPT, 코덱스, 브라우저를 통합한 AI 슈퍼앱”을 만들겠다는 방향을 소개한다.[^71] 목적은 사용자 경험 단순화로, 코딩 작업/일반 질문/브라우저 기반 작업을 하나로 통합해 사용자가 직관적으로 쓰게 하겠다는 그림이라고 설명한다.[^72]
3.9 엔비디아 GTC 2026: “추론의 시대”, 토큰 효율 10배, LPU/LPX, 네모클로, 로보틱스/옴니버스[^73]
조코딩은 이번 주 빅 이벤트로 엔비디아 GTC 2026을 소개하며, 젠슨 황 키노트와 다양한 세션이 진행됐다고 말한다.[^73] 그리고 핵심 내용을 요약이 아니라 “전반 흐름”으로 짚는다.[^74]
(1) 메시지: 학습에서 추론으로, “AI 팩토리”와 토큰 생산 효율[^75]
키노트 시작부터 “이제는 추론의 시대”라고 하며 AI 팩토리를 강조했다는 점을 먼저 말한다.[^75] 이전 AI가 학습에 치우쳤다면 이제는 추론과 AI 팩토리에 맞춰졌고, “토큰을 효율적으로 뽑아내야 한다”는 점을 강하게 강조했다고 전달한다.[^75]
(2) 차세대(베라 루빈)에서 토큰 효율 10배, 비용 1/10 효과[^76]
다음 세대인 **베라 루빈(Vera Rubin)**을 강조하며 토큰 효율을 보여줬고, 큰 모델 쪽에서 “토큰 효율성이 10배” 좋아진다고 한다.[^76]
조코딩은 블랙웰(Blackwell) 대비 베라 루빈으로 뽑는 토큰을 비교하면 10배 차이가 난다는 의미로 설명하며, 그렇게 되면 기업이 안 쓸 이유가 없고 “비용이 1/10로 줄어든다”고 연결한다.[^76]
(3) HBM4 언급과 한국 기업 코멘트[^77]
HBM4 도입도 언급하며 “우리나라(하이닉스, 삼성전자) HBM 파이팅”이라는 식의 반응을 보인다.[^77]
(4) 추론 특화 칩: 그록(Groq) 인수, LPU/LPX, S램 내장으로 이동 경로 단축[^78]
GTC에서 강조된 또 다른 축으로 “추론 칩”을 든다.[^78] 조코딩은 엔비디아가 **그록(Groq)**을 인수했고, 그록이 LPU라는 추론 특화 칩을 만든다고 설명한다.[^78]
원리는 다음처럼 설명된다.[^79]
- 데이터가 메모리와 칩 사이를 왔다 갔다 하면 시간이 오래 걸린다.[^79]
- HBM은 밴드위스를 넓혀 더 빠르게 왕복하게 만든다.[^79]
- 그런데 그록은 칩 안에 램(SRAM 등)을 엄청 박아 “아예 이동 경로를 줄였다”.[^79]
그 결과 추론이 엄청 빠르고, 이런 추론 특화 칩을 여러 개 연결·뭉쳐(조코딩 표현으로 LPX) “추론을 엄청 빠르게” 하겠다는 방향을 보여줬다고 한다.[^80]
수치로는 “생산 요율을 최대 35배까지 끌어 올리고 비용은 1/10 수준으로 낮춘다”고 언급한다.[^81]
그는 그록을 써보면 “엄청 빠르다”며 즉석에서 “조코딩을 소개하는 5000자 글 써줘” 같은 요청을 하고 “오 빨리 나와요”라며 추론 속도를 체감으로 보여준다.[^82] 그리고 이제 엔비디아가 인수했으니 앞으로 추론이 더 좋아질 것 같다고 전망한다.[^83]
(5) 소프트웨어 플랫폼: 에이전틱 AI, 오픈클로 찬사, 네모클로(Nemo-Clo) 공개[^84]
엔비디아는 소프트웨어 플랫폼에서도 “에이전틱 AI 시대”를 강조했다고 하며, 젠슨 황이 “오픈 클로(open clow; 오픈 소스 에이전트/워크플로로 문맥상 추정)”를 매우 칭찬했다고 전한다.[^84]
“역사상 가장 훌륭한 오픈소스 프로젝트”라고 평가했고, 깃허브 스타 수가 수직 상승해 리액트/리눅스 같은 유명 프로젝트를 뛰어넘었다고 말한다.[^85]
이를 바탕으로 엔비디아가 기업용으로 오픈클로 비슷한 것을 만들었다며 네모클로를 공개했다고 한다.[^86]
깃허브를 보니 기본 모델로 **엔비디아 네모트론 3 슈퍼(Nemotron 3 Super)**를 쓰는 것 같고, 에이전트 기능이 잘 동작하는 가성비 오픈소스 모델 기반이며, 기업용 보안 강화도 했다고 설명한다.[^87] 설치는 “한 줄이면 된다”고 언급한다.[^88]
(6) 로보틱스/자율주행: 옴니버스 시뮬레이션에서 훈련 → 현실 적용(올라프 데모)[^89]
GTC에서 자율주행/로보틱스도 강조되었고, 로보틱스 데모로 “올라프”가 나왔다고 말한다.[^89]
**옴니버스(시뮬레이션 세계)**에서 훈련한 뒤 실제 로봇에 적용해 돌아다니고 대화도 한다는 식으로 소개되며, 로봇의 미래까지 보여주며 GTC가 마무리됐다고 한다.[^90]
마지막으로 조코딩은 GTC 2026의 핵심이 “AI 에이전트와 추론의 시대”를 강조한 것이라고 재정리한다.[^91]
3.10 클로드 라우터: 요청 난이도에 따라 모델 라우팅, 비용 최대 78% 절감, 오픈소스[^92]
조코딩은 오픈클로(또는 오픈 워크플로) 기반의 단점으로 “API 비용이 많이 나온다”는 점을 들며,[^92] 이를 낮추는 소프트웨어로 클로드 라우터가 등장했다고 소개한다.[^93]
- 비용을 “무려 78%까지 절감”할 수 있다고 하고[^94]
- 라우터를 앞에 붙이면 “모든 요청을 1ms 미만”의 추론 속도로 복잡성 등을 점수화해 가장 효율적인 모델로 라우팅한다고 설명한다.[^95]
예시로,
- “2+2는?” 같은 쉬운 질문은 딥시크 같은 저렴한 모델로 처리하고[^96]
- 기사 요약은 조금 무거운 모델,
- 리액트 컴포넌트 같은 코딩은 클로드 소네(Claude Sonnet) 등으로
질문 유형에 따라 가격대를 다르게 적용한다는 식으로 설명한다.[^96]
또한 “100% 오픈소스”라고 하며, 적용하면 저렴하게 써볼 수 있다고 말한다.[^97]
3.11 오픈클로로 영상 생성 + 프리미어 프로 편집 자동화 데모(바이럴) + ‘편집 스타일 스킬’의 중요성[^98]
조코딩은 바이럴 영상 사례로, 오픈클로를 이용해 “영상 생성”하고 “프리미어 프로로 편집”까지 자동으로 적용한 데모를 소개한다.[^98] 데모에서는 실제로 영상을 만들어 프리미어로 가져와 자동 편집하여 완성하는 흐름을 보여준다고 한다.[^99]
그는 이런 시스템이 만들기 진짜 어렵지 않은 것 같다고 말하는데, 이유는
- 바이브코딩으로 만들 수도 있고[^100]
- 오픈클로에게 시키면 알아서 해주기 때문이라는 것이다.[^100]
다만 “스킬 설정”이 중요하며, “내 편집 스타일이 어떠니 이렇게 해줘”처럼 스킬을 정제해두면 편집도 잘해줄 수 있지 않을까라고 덧붙인다.[^101]
3.12 Browser Use CLI 2.0: 터미널 기반 브라우저 자동화, CDP 연동[^102]
유용한 도구로 Browser Use CLI 2.0을 소개한다.[^102]
이는 브라우저를 사용할 수 있는 CLI 기반 도구로, MCP가 화제지만 “CLI 기반 도구도 주목”받는다고 말한다.[^103] 그 이유로 클로드 코드/코덱스 등 많은 도구가 터미널 기반으로 돌아가므로, 굳이 MCP로 연결하지 않아도 CLI로 브라우저 자동화를 연결하기 좋다는 논리다.[^104]
예시로 클로드 코드에서 browser-use를 설치하고 “내 브라우저랑 연결해, X.com으로 이동해”라고 하면 CLI로 브라우저를 조작해 접속하고,[^105] “최근 노티피케이션 뭐야?” 같은 질문에 내용을 가져오는 장면을 설명한다.[^105]
또한 CDP(Chrome DevTools Protocol)를 “크롬 개발자도구”라고 소개하며, 개발자도구와 연결해 데이터를 바로 이용할 수 있다고 한다.[^106]
3.13 LIVR: “AI 직원을 뽑아 회사를 만들라”는 자율 직원/에이전트 협업 툴[^107]
조코딩은 “LIVR(라이브)”라는 새로운 자율 직원을 소개한다.[^107] 슬로건처럼 “AI 직원을 뽑아서 컴퍼니를 만드세요”라고 말하며,[^108] “보이스 에이전트 SaaS를 만들어줘” 같은 목표를 주면 마켓 분석가/시장 분석가/보이스 AI 담당자/브랜드 전략가 등 에이전트들이 협업한다고 설명한다.[^109]
광고 문구처럼 “매출도 올려준다”는 식으로 홍보한다고 전하며,[^110] 구체적으로는 각 AI 에이전트가
- 개인 소유 컴퓨터
- 개인 소유 은행 계좌
- 개인 소유 법인
- 개인 소유 이메일
- 개인 소유 계정
- 개인 소유 휴대전화
등을 소유한 채 협력하고, “사람이 전혀 개입하지 않는다”고 말한다.[^111]
수행 범위로는 SEO/GEO, 랜딩 페이지, 아웃바운드 영업, 풀스택 앱, 링크드인 게시물, 회계 등을 “다 알아서” 한다고 나열한다.[^112] 링크드인 메시지로 영업하는 듯한 예시도 덧붙인다.[^113]
조코딩은 이런 흐름을 “AI 에이전트가 일하는 회사 형태가 자리 잡아간다”고 보고,[^114] 에이전트가 스킬 형태로 전문화되고 협업/서브에이전트로 결과를 모으는 것이 기술적으로 가능해진 시대이기 때문에 AI 네이티브 회사 형태가 나온다고 연결한다.[^115] 그리고 “진짜 1인 창업의 시대”라고 말한다.[^116]
3.14 오픈클로 3D 사무실: 에이전트가 하는 일을 시각화하는 3D 오피스[^117]
오픈클로가 화제라 연관 제품도 나오는데, “오픈클로 3D 사무실”이 바이럴이라고 소개한다.[^117]
시각적으로 오픈클로가 무슨 일을 하는지 볼 수 있게 만든 “3D 오피스”이며, 게임처럼 “내 오픈클로가 무슨 일을 하고 있나”를 직관적으로 볼 수 있다고 설명한다.[^118]
3.15 중국 모델 러시: Zhipu(GLM 5 Turbo), 샤오미 모델, 미니맥스 M2.7(자가 개선 강조)[^119]
조코딩은 중국 기업 **Zhipu AI(문맥상 ‘ZI’로 발음/표기)**의 GLM 5 Turbo 모델이 나왔고 오픈클로에 잘 적용된다고 말한다.[^119] “에이전틱 기능이 잘 된다”는 강조가 있고,[^120] “오픈클로 벤치(Agentic 수행/오픈클로 구동 능력 벤치)” 같은 지표에서 오퍼스가 바깥쪽(최상위)이고 GLM 5 Turbo도 꽤 높다고 설명한다.[^121]
다만 GLM 5 Turbo는 API 형태로만 쓸 수 있다고 하며,[^122] 이에 대한 불만이 있어 리드가 “GLM 5.1은 오픈소스로 공개될 예정”이라고 밝혔다고 전한다.[^123]
이어서 샤오미도 새 모델을 냈다며 V2 Pro, Omni(멀티모달), TTS 세 가지를 출시했다고 소개한다.[^124]
V2 Pro는 “핀치 벤치”가 높고, 여기서도 “오픈클로를 얼마나 잘 돌리냐가 벤치마크가 됐다”고 말한다.[^125] 종합 점수(Artificial Analysis 종합 등)에서 GLM 5 다음으로 샤오미 모델이 위치하는 것을 언급한다.[^126]
Omni 모델은 오디오 이해 멀티모달 벤치(MMA 등)에서 재미나이보다 높다고 말하고,[^127] MMLU 관련 점수도 “꽤 높다”고 한다.[^127] TTS는 중국어는 잘하겠고 영어 샘플을 들려주며 “괜찮은 것 같긴 한데 엄청 잘 나오진 않는 것 같다”고 평가한다.[^128]
또 다른 중국 모델로 미니맥스의 “자체 진화” 모델 M2.7을 소개하며,[^129] “세계 7위 성능” 같은 표현과 함께 “자가 개선(Self-improvement) 모델”을 강조하는 제목이 폭력적(?)이라고 반응한다.[^129] 그리고 오퍼스 최고 수준에 근접, 소프트웨어 벤치 프로에서 코딩 실력이 오퍼스 급이라는 식의 주장도 언급한다.[^130]
3.16 Cursor: 자체 코딩 모델 Composer 2 출시(고속·저렴) + 베이스모델이 Kimi K2.5였다는 논란/구조 이야기[^131]
미국 쪽으로 넘어가 **커서(Cursor)**가 새로운 코딩 모델 Composer 2를 출시했다고 말한다.[^131] 커서가 “자기네 AI 모델”을 만든 것이고, 굉장히 빠르며 성능이 좋고, 토큰/초 속도가 빠르며 가격도 저렴하다고 강조한다고 소개한다.[^132]
Composer 2 Fast와 Composer 2 두 가지를 공개했고,[^133] 20만 토큰 지원, 터미널 벤치 등에서 오퍼스보다 높게 나온다는 식의 비교를 언급한다.[^133] 그래서 커서 사용자라면 가성비로 Composer 2를 써보라는 코멘트를 한다.[^134]
(1) “바닥부터 만든 게 아니라 오픈소스 기반” + Kimi K2.5 사용 추정/확인[^135]
놀라운 점으로, Composer 2가 바닥부터 만든 모델이 아니라 오픈소스 기반에서 시작했다고 하며,[^135] 최종 모델에 쓰인 것의 약 1/4이 기본 데이터에서 나오고 나머지는 학습에서 발생했다고 말한다.[^135]
그리고 한 유저가 파보니 베이스 모델이 Kimi K2.5였다고 밝혀냈고,[^136] 공식적으로 Kimi 쪽에서도 “Composer 2 출시 축하, 우리 모델 써줘서 감사”라며 인정했다고 소개한다.[^136] Kimi는 “K2가 훌륭한 기반을 마련한 것을 자랑스럽게 생각한다”는 뉘앙스의 메시지도 언급된다.[^137]
(2) 생태계 구조에 대한 코멘트: 증류→가공→구독→데이터 흡수 루프[^138]
이 이슈로 “결국 이런 구조”라는 이야기가 화제가 됐다고 하며,[^138]
- 미국의 앤트로(Anthropic 등) 모델이 나오면
- 이를 기반으로 디스틸레이션(증류)로 Kimi K2 같은 모델이 나오고
- 그것을 다시 가공해 Composer 2가 나오고
- 구독제를 팔며 개발자 코드 데이터를 흡수해 훈련한다
는 식의 생태계 루프가 만들어졌다는 관점을 전한다.[^138]
3.17 이미지/3D/모션 생성: 미드저니 V8, MS MAI Image 2, 엔비디아 KIMODO[^139]
조코딩은 오랜만에 미드저니(Midjourney) 소식을 전하며, “속도/개인화가 강한 이미지 모델 V8”을 출시했다고 한다.[^139] V8 샘플 퀄리티가 이 정도라고 소개하면서도, 나노바나 같은 것과 비교하면 플라스틱 느낌—“AI 질감”—이 있긴 한 것 같다고 평가한다.[^140]
또 오랜만에 들리는 기업으로 마이크로소프트가 MAI Image 2 모델을 출시했고, 아레나 리더보드 3위까지 올라왔다고 한다.[^141] 아레나는 모델끼리 선호도를 겨루는 플랫폼이라는 설명을 덧붙인다.[^142]
구글/오픈AI 다음으로 MS 모델이 올라왔고, 원래 오픈AI 모델 의존이 컸는데 자체 모델로 이 정도까지 왔다는 점에 의미가 있다고 말한다.[^143] 그리고 윈도우 그림판 같은 곳에 적용될 수도 있겠다는 추측과 함께 “나쁘지 않다, 3등”이라고 코멘트한다.[^144]
이어서 엔비디아가 3D 모션 생성 툴(키모도/KIMODO)을 공개했으며 로봇 학습 데이터에 유용하다고 소개한다.[^145] 프롬프트만으로 “뛰어가서 점프” 같은 모션을 만들고, 포즈를 조절해 원하는 결과로 만들 수 있으며, 움직임 데이터를 만들어 로봇 학습에 쓰기 좋다고 말한다.[^146]
이는 엔비디아가 옴니버스에서 학습→현실 적용을 강조하는 맥락과도 이어진다.[^147]
또한 텍스트로 휴먼노이드 아바타를 실시간 제어하는 데모를 언급하며, “raise pose”, “tap backward”, “kick left leg” 같은 명령이 로봇 동작으로 구현되는 장면을 설명한다.[^148]
3.18 포켓몬고: 1억 4,300만 명 플레이로 300억+ 실제 이미지 데이터셋 구축, 배송로봇 내비게이션 개발[^149]
조코딩은 포켓몬고 관련 뉴스로, 1억 4,300만 명의 플레이어가 플레이하면서 “AI 역사상 가장 큰 규모의 실제 시각 데이터셋”을 구축 중이었다고 소개한다.[^149]
포켓몬고를 만든 회사(나이언틱)가 포켓몬고를 통해 수집된 사진과 AR 스캔 데이터로 “300억 개 이상의 실제 이미지 데이터셋”을 구축했다고 발표했다고 한다.[^150]
그리고 이 데이터를 활용해 “배송 로봇의 시각적 내비게이션” 같은 AI를 개발 중이라고 설명한다.[^151]
3.19 KAIST·네이버·서울대: “서울 월드 모델” 공개(스트리트뷰 기반 대도시 시뮬레이션, 날씨/재난 가정 시뮬)[^152]
국내 소식으로 KAIST, 네이버, 서울대가 함께 “서울 월드 모델”을 공개했다고 전한다.[^152] 실제 대도시를 배경으로 세계 시뮬레이션(월드 모델)을 만들 수 있으며, 서울 거리의 스트리트뷰 이미지를 이용해 시뮬레이션을 만드는 모델이라고 설명한다.[^153]
네이버 AI랩은 네이버지도 제작 과정에서 거리 데이터(스트리트뷰)가 있으니 이를 활용할 수 있다는 맥락을 덧붙인다.[^154]
생성된 영상인데도 실제 서울을 담은 것처럼 보이며,[^155] 예시로 공덕 쪽, 강변북로 진입, 한강과 여의도 등이 재현되는 장면을 언급한다.[^156]
이 기술을 자율주행 데이터 생성이나 운전 시뮬레이션 등에 쓸 수 있지 않겠냐고 연결한다.[^157]
흥미로운 점으로, 이를 기반으로 날씨를 바꾸거나 토네이도/홍수 같은 “가정”을 넣어 월드 모델을 생성하면, 홍수 상황에서의 시뮬레이션도 돌려볼 수 있다고 말한다.[^158]
3.20 “비디오로 월드를 만든다”: Infinigen/인스페리토(영상 기반 4D 세계 모델) 오픈소스 14B 공개[^159]
조코딩은 “저희는 영상을 제작하지 않습니다. 비디오를 통해 세상을 만들어 냅니다”라는 문구를 인용하며,[^159] 영상 기반으로 월드를 만드는 실시간 4D 세계 모델을 공개한 사례를 소개한다.[^160]
짧은 비디오 클립을 넣으면 3D 월드가 만들어지고, 사용자가 그 공간을 직접 움직이며 탐험할 수 있는 형태라고 설명한다.[^161] 길을 걸어간 영상 하나만 넣어도 3D 월드가 만들어져 게임처럼 탐험 가능하다고 한다.[^161]
생일 축하 영상, 애니메이션 등 “어떤 영상이든” 넣으면 그 영상을 탐험하는 게임/경험을 만들 수 있다는 상상을 덧붙인다.[^162]
그리고 놀랍게도 이것이 오픈소스로 공개됐고 코드/웨이트를 공개했으며, “14B(14 billion)” 규모라고 말한다.[^163]
3.21 로봇 데모 근황: 로봇 피부, 너트 조임 손, 인간 동작을 따라 하는 로봇 팔(만화가 현실로)[^164]
조코딩은 “요즘 로봇 근황”으로 몇 가지 데모를 보여준다.[^164]
먼저 피부를 씌운 로봇이 진짜처럼 보이는 장면을 언급하며 소리도 들어본다.[^164]
기능적으로 흥미로운 사례로 베이징 링커봇의 “링커 핸드”를 소개하며, 손가락으로 볼트/너트를 조이는 작업을 하고 형태가 다양해도 적용 가능하며, 여러 개를 한 번에 돌리는 장면도 언급한다.[^165]
또한 만화/건담에서 조종사가 움직이면 로봇이 따라 움직이는 장면이 현실화됐다고 하며,[^166] 사람이 팔을 잡고 움직이자 뒤쪽 로봇 팔이 따라 하고, 주먹/따봉 같은 제스처도 가능하며, 때리면 에어백이 터질 정도의 데모도 소개한다.[^167]
3.22 피터 틸 투자: 소 목걸이(20억 달러)로 소 추적·원격 이동, “카우고리즘”으로 생산성 향상[^168]
마지막 뉴스 중 하나로 피터 틸이 투자한 소 관련 스타트업이 화제라고 전한다.[^168]
소 목에 두르는 목걸이에 “20억 달러”를 투자했다고 하며,[^169] 목걸이가 달려 있으면 소가 어디 있는지/무엇을 하는지 추적이 가능하다고 설명한다.[^170] 앱에서 확인할 수 있고, 버튼을 누르면 소가 원하는 위치로 이동한다고 한다.[^171]
원래는 사람이 소를 몰아야 하는데 목걸이만 채우면 된다는 주장이다.[^172]
그는 “AI 기반 소들이 카우고리즘(cowgorithm)이라는 알고리즘으로 농업 생산성을 향상”시킨다는 문구를 읽으며 소식을 마무리한다.[^173]
3.23 영상 마무리: 바이브코딩 1인 창업 부트캠프 홍보 + Firebase Studio 종료로 GitHub Codespaces로 이전[^174]
조코딩은 마지막에 “바이브 코딩 1인 창업 부트캠프”를 홍보하며,[^174] 지금이 “AI 1인 창업의 시대”라고 다시 강조한다.[^175] 무료로 배우고 싶은 사람을 위해 “3시간 통합 무료 영상”이 있고, 바이브코딩으로 1인 창업하는 모든 과정을 배울 수 있다고 안내한다.[^176]
또한 참고 사항으로 원래 파이어베이스 스튜디오 도구를 사용해 바이브코딩을 알려줬는데, 파이어베이스 스튜디오가 곧 없어지므로 이를 GitHub Codespaces로 옮기는 과정을 보여주겠다고 말한다.[^177]
이후 좋아요를 부탁하고 다음 주 AI 뉴스로 돌아오겠다고 인사하며 영상이 끝난다.[^178]
4. 핵심 통찰[^32]
- “바이브코딩”은 더 이상 화면 목업 생성이 아니라, 인증·DB·배포까지 포함한 풀스택 프로덕션 파이프라인으로 확장되고 있다.^1
- 구글 AI 스튜디오는 구글 클라우드 연동으로 이 파이프라인을 강하게 묶어 “딸깍 배포” 경험을 만든다.^11
- 디자인 시스템 자동 생성은 “예쁜 시안”을 넘어서, 제품의 UI 일관성과 반복 수정 비용을 낮추는 방향으로 자동화가 진화하고 있다.^22
- 에이전트 활용은 “챗봇”이 아니라, **원격 지시(Dispatch/Channels) + 작업 예약(클라우드 스케줄) + 분업(서브 에이전트)**의 조합으로 현실화되고 있다.[^41]
- 분업 에이전트는 컨텍스트를 분리해 병렬 처리 효율을 주지만, 동시에 토큰 비용이 급증할 수 있어 비용 관리가 핵심 운영 이슈가 된다.[^60]
- GTC 2026이 던진 메시지는 “모델 성능”만이 아니라 추론 토큰 효율과 비용 구조가 기업 채택을 좌우한다는 점이다(10배 효율, 35배 처리량, 1/10 비용 등).[^^76]
- 비용 최적화는 하드웨어뿐 아니라 소프트웨어(라우팅)로도 진행되며, 클로드 라우터처럼 “요청 난이도별 모델 선택”이 기본 전략이 되고 있다.[^95]
실행 관점에서의 시사점(콘텐츠가 암시/제안하는 행동)^11
- 구글 AI 스튜디오를 쓸 때는 “기능 정의 → 생성 → 오류 수정 → 퍼블리시” 루프를 빠르게 돌리며 실제 URL로 배포까지 확인하는 습관이 중요하다.^16
- 스티치/프론트엔드 디자인 자동화는 프롬프트 품질에 민감하므로, 원하는 무드(사이버펑크 등)를 구체적 스타일 가이드로 구조화해 넣는 연습이 필요하다.[^31]
- 서브 에이전트/자동화 시스템은 “스킬(규칙/스타일/절차)”을 정제해둘수록 결과 품질이 올라가므로, 반복 작업일수록 스킬화/템플릿화를 고려해야 한다.[^101]
5. 헷갈리는 용어 정리 (해당 시에만)[^78]
바이브코딩(Vibe coding): 자연어 프롬프트 중심으로 앱/코드를 생성·수정하며 개발을 진행하는 방식(영상에서는 “딸깍”으로 표현).^8
스티치(Stitch): 구글의 AI 네이티브 “바이브 디자인” 플랫폼으로, 자연어/음성으로 UI를 만들고 디자인 시스템과 프로토타입까지 생성하는 도구.^19
Dispatch(클로드): 휴대폰에서 PC의 클로드 작업을 호출해 파일 열기/요약 등 원격 작업을 수행하는 기능.[^42]
Channels(클로드 코드): 텔레그램/디스코드 같은 외부 메신저로 클로드 코드에 작업 지시를 보내고 양방향으로 결과를 받는 기능.[^46]
서브 에이전트(Sub-agent): 여러 백그라운드 에이전트를 병렬로 돌려 작업을 분담하고, 결과를 통합해 결론을 내는 방식/기능.[^57]
AI 팩토리(AI Factory): 엔비디아가 강조한 개념으로, 학습보다 “추론 생산”과 토큰 효율을 중심에 둔 인프라/운영 관점.[^75]
HBM4: 고대역폭 메모리(High Bandwidth Memory) 세대 중 하나로, 대역폭을 높여 연산-메모리 병목을 줄이는 방향의 메모리 기술로 언급됨.[^77]
LPU/LPX(영상 설명 맥락): 그록의 추론 특화 칩(LPU)과 이를 연결/확장해 추론을 가속하려는 구성(영상에서 LPX라고도 부름).[^80]
CDP(Chrome DevTools Protocol): 크롬 개발자도구 프로토콜로, 브라우저 자동화 도구가 이를 통해 브라우저 내부 데이터/조작에 접근할 수 있다고 설명됨.[^106]
월드 모델(World Model): 실제 세계(도시/환경)를 반영한 시뮬레이션/생성 모델로, 자율주행·재난 시뮬레이션 등에 활용 가능하다는 맥락으로 등장.[^152]
참고(콘텐츠 정보)^1
- 제목: AI뉴스 - 구글 풀스택 바이브코딩, Stitch, Cowork Dispatch, Channels, GTC 2026, 미드저니 V8, M2.7 등^1
- 채널: 조코딩 JoCoding^1
- 길이: 28분 41초^1
- 링크: https://www.youtube.com/watch?v=fu6-y5seQlE^1
[^29]: @[03:41] "색깔 좀 바꿔 봐." / "어떤 색다른 바이브..." [^30]: @[03:45] "사이버 펑크..." / "어두운 배경... 네온..." [^31]: @[03:54] "형광으로 나오는데... 프롬트를 잘 넣긴 해야..." [^32]: @[03:56] "전반적으로... 풀스택 웹 개발 그리고 바이브 디자인..." [^33]: @[04:05] "마이그레이트 파이어베이스튜디오... 종료..." [^34]: @[04:17] "기능이 겹치는게... AI 스튜디오 자체를... 아닐까..." [^35]: @[04:22] "개발 지식을... 모르는 분들도 접근..." [^36]: @[04:28] "마이그레이션을 하라... 안내..." [^37]: @[04:35] "킬드바이 구글... 많은 서비스들이 종료..." [^38]: @[04:51] "구글 드라이브 문서 스캐너가 좋아졌다고..." [^39]: @[04:55] "스캐닝... 페이지 넘길 때마다... 자동으로 등록..." [^40]: @[05:04] "스캐너 앱... 싹 박살... 구글 드라이브만으로도..." [^41]: @[05:15] "클로드가 기능 업데이트 속도가 어마어마..." [^42]: @[05:23] "클로드 코워크에 디스패치... 휴대폰으로 들고 오는..." [^43]: @[05:34] "다운로드... PPT 열고 정보를 가져와..." [^44]: @[05:41] "클로드 앱으로 디스패치라는 기능..." [^45]: @[05:53] "원격에서 내 컴퓨터를... AI가 알아서 내 파일들..." [^46]: @[05:57] "클로드 코드 채널스... 텔레그램이나 디스코드..." [^47]: @[06:09] "양방향 통신..." [^48]: @[06:15] "텔레그램, 디스코드... 시켜 놓으면... 작업..." [^49]: @[06:18] "오픈 클로가 잘 되니까... 주요 AI 기업들..." [^50]: @[06:34] "클로드 코드... 클라우드 기반... 내 컴퓨터를 꺼도..." [^51]: @[06:47] "풀 리퀘스트... 정기적으로 검사... 등록..." [^52]: @[07:03] "Y 콤비네이터... CEO 게리탄... 셋업 공개..." [^53]: @[07:11] "새로운 거 출시하는 노하우... 스킬 형태..." [^54]: @[07:24] "생각, 계획, 구축, 검토, 테스트, 출시, 성찰." [^55]: @[07:39] "오피스하워... CEO... 수석 디자이너... 디버거..." [^56]: @[07:54] "스킬들이 굉장히 많아지는... 다운받아서..." [^57]: @[08:10] "코덱스에서 서브 에이전트 지원..." [^58]: @[08:15] "세 개의 백그라운드 에이전트... 통합..." [^59]: @[08:27] "컨텍스트... 각각의 에이전트가 각각의 자기 컨텍스트..." [^60]: @[08:34] "대신 토큰 사용량은 확 늘어납니다." [^61]: @[08:41] "명령어 중에 서브 에이전트라는 말을 넣어서..." [^62]: @[08:54] "서브 에이전트 컬렉션... API 디자이너 백핸드..." [^63]: @[09:17] "동시에 작업... 풀스택... AI 에이전트 시대..." [^64]: @[09:29] "이론적인게 아니라 당장 써 먹을 수 있는..." [^65]: @[09:32] "오픈해야... 미니와 나노 모델도 공개..." [^66]: @[09:52] "벤치마크... 5.4X하이 대비... 별 차이가..." [^67]: @[10:08] "싸게 쓰고 싶다... 미니나노... 전략..." [^68]: @[10:15] "GPT 5.4로 세련된 프론트엔드 디자인하기..." [^69]: @[10:27] "복사해... 넣어 주게 되면... 이쁘게..." [^70]: @[10:33] "디자인 원칙... 스킬로도 제공..." [^71]: @[10:52] "챗GPT, 코덱스, 브라우저를 통합한... 슈퍼앱..." [^72]: @[11:00] "여러 가지... 하나로 싹 통합..." [^73]: @[11:12] "엔비디아의 GTC 2026... 최대 행사..." [^74]: @[11:27] "주요 내용들 한번 보도록..." [^75]: @[11:34] "이제는 추론의 시대... AI 팩토리... 토큰..." [^76]: @[11:49] "토큰 효율성 10배... 비용이 10분로..." [^77]: @[12:07] "HBM4... 하이닉스 삼성전자..." [^78]: @[12:13] "추론 칩... 그록 인수... LPU..." [^79]: @[12:22] "칩 안에... 램... 이동 경로를 줄인..." [^80]: @[12:42] "LPX... 여러 개 뭉쳐... 추론을..." [^81]: @[12:49] "생산 요율 최대 35배... 비용은 10분..." [^82]: @[12:59] "오천자 글 써 줘... 오 빨리 나와요." [^83]: @[13:10] "엔비디아에서 인수... 추론이 점점 더..." [^84]: @[13:16] "에이전틱 AI 시대... 오픈 클로를..." [^85]: @[13:21] "역사상 가장 훌륭한 오픈 소스... 스타수..." [^86]: @[13:34] "네모 클로... 기업용 어떤 오픈 클로..." [^87]: @[13:45] "네모트론 3 슈퍼... 기업용 보안..." [^88]: @[14:01] "설치도 그냥... 한 줄이면..." [^89]: @[14:06] "자율 주행이나 로보틱스... 올라프..." [^90]: @[14:19] "옴니버스... 훈련... 실제로 동작..." [^91]: @[14:27] "GTC 2026... AI 에이전트와 추론의 시대..." [^92]: @[14:31] "오픈 클로... API 비용이 굉장히..." [^93]: @[14:38] "클로드 라우터..." [^94]: @[14:50] "무려 78%까지 절감을..." [^95]: @[14:55] "1m세 미만... 점수... 라우팅..." [^96]: @[15:01] "2 + 2... 딥시크... 기사 요약... 리액트..." [^97]: @[15:16] "100% 오픈 소스..." [^98]: @[15:25] "오픈 클로우를 이용해서 영상 생성... 프리미어..." [^99]: @[15:34] "프리미어... 알아서 영상 편집... 완성..." [^100]: @[15:42] "바이브 코딩으로... 오픈 클로우한테..." [^101]: @[15:50] "편집 스타일... 스킬을 잘 정제..." [^102]: @[16:08] "브라우저 유즈... CLI 2.0..." [^103]: @[16:13] "MCP도 화제... CLI 기반 도구들도..." [^104]: @[16:17] "굳이 MCP로 연결하지 않아도... 터미널..." [^105]: @[16:30] "X.닷컴으로 이동... 노티피케이션..." [^106]: @[16:43] "CDP... 크롬 개발자 도구..." [^107]: @[16:48] "라이브라는 새로운 자율 직원..." [^108]: @[16:55] "AI 직원을 뽑아서 컴퍼니를 만드세요." [^109]: @[17:05] "마켓 분석가... 브랜드 전략과... 협업..." [^110]: @[17:11] "매출도 올려주는..." [^111]: @[17:15] "개인 소유의 컴퓨터... 은행 계좌... 법인..." [^112]: @[17:27] "SEO, GEO, 랜딩 페이지... 회계..." [^113]: @[17:31] "메시지로 영업... 보내..." [^114]: @[17:44] "AI 에이전트가 일하는... 회사의 형태..." [^115]: @[17:50] "전문화... 협업... 서브 에이전트..." [^116]: @[18:03] "진짜 1인 창업의 시대입니다." [^117]: @[18:06] "오픈 클로우드 3D 사무실..." [^118]: @[18:12] "시각적으로... 게임 형태로..." [^119]: @[18:21] "ZI... GLM 5 터보..." [^120]: @[18:31] "에이전틱한 기능이 잘된다..." [^121]: @[18:35] "오픈 클로우 벤츠... GLM 5 터보..." [^122]: @[18:45] "API 형태로 사용할 수..." [^123]: @[18:57] "GLM 5.1은 오픈 소스로 공개..." [^124]: @[19:04] "샤오미... V2 프로... 옴니... TTS..." [^125]: @[19:10] "핀치 벤치... 오픈 클로우..." [^126]: @[19:27] "종합... GLM 5 바로 다음으로 샤오미..." [^127]: @[19:31] "오디오... 재미나이보다 높습니다... MMLU..." [^128]: @[19:46] "TTS... 엄청 잘 나오진..." [^129]: @[20:03] "미니맥스... M2.7... 자가 개선..." [^130]: @[20:13] "오퍼스... 근접... 소프트웨어 벤치..." [^131]: @[20:24] "커서... 컴포저 2..." [^132]: @[20:30] "빠른데 성능이 좋다... 저렴..." [^133]: @[20:42] "컴퍼서 2 패스트... 20만 토큰..." [^134]: @[20:57] "가성비... 커서... 컴포저 2..." [^135]: @[21:11] "오픈 소스 기반... 약 1/4..." [^136]: @[21:22] "키미 K2.5... 인정..." [^137]: @[21:37] "키미 K2가 훌륭한 기반..." [^138]: @[21:42] "증류... 가공... 구독제... 흡수..." [^139]: @[22:01] "미드전니... 이미지 모델 V8..." [^140]: @[22:08] "플라스틱 느낌... AI의 질감..." [^141]: @[22:18] "마이크로소프트... MAI 이미지 2... 3위..." [^142]: @[22:26] "아레나... 겨루는 플랫폼..." [^143]: @[22:33] "오픈에 의존... 자체 모델..." [^144]: @[22:41] "윈도우 그림판... 나쁘진 않아요... 3등..." [^145]: @[22:53] "엔비디아... 3D 모션... 키모도..." [^146]: @[22:58] "점프 모션... 포즈 조절... 움직임 데이터..." [^147]: @[23:17] "옴니버스... 시뮬레이션... 학습..." [^148]: @[23:28] "텍스트로... 로봇... raise pose... kick..." [^149]: @[23:58] "포켓몬고... 1억 4,300만 명..." [^150]: @[24:17] "300억 개 이상의 실제 이미지 데이터셋..." [^151]: @[24:21] "배송 로봇의 시각적 내비게이션..." [^152]: @[24:29] "카이스트... 네이버 서울대... 서울 월드 모델..." [^153]: @[24:39] "스트리트뷰 이미지를 이용해서..." [^154]: @[24:46] "네이버지도... 거리 데이터..." [^155]: @[24:55] "생성된 영상인데도... 실제 서울..." [^156]: @[25:02] "공덕... 강변북로... 한강... 여의도..." [^157]: @[25:15] "자율주행 데이터... 운전 시뮬레이션..." [^158]: @[25:23] "날씨 바꾸거나... 토네이도... 홍수..." [^159]: @[25:33] "우리는 영상을 제작하지 않습니다..." [^160]: @[25:39] "실시간 4D 세계 모델..." [^161]: @[25:46] "비디오 클립... 3D 월드... 탐험..." [^162]: @[26:04] "생일 축하... 애니메이션... 탐험..." [^163]: @[26:09] "오픈 소스로 공개... 14 빌리언..." [^164]: @[26:18] "요즘 로봇... 피부 씌워..." [^165]: @[26:35] "링커 핸드... 볼트 너트... 여러 개..." [^166]: @[26:49] "건담... 움직이면 로봇이 따라..." [^167]: @[26:58] "로봇 팔... 에어백도 터져요... 따봉..." [^168]: @[27:11] "피터티... 소 관련 스타트업..." [^169]: @[27:15] "20억 달러를 투자..." [^170]: @[27:23] "추적... 어디에 있는지..." [^171]: @[27:30] "앱으로... 버튼 누르면... 이동..." [^172]: @[27:33] "목걸이만 채워 놓으면..." [^173]: @[27:38] "카우고리즘... 농업 생산성..." [^174]: @[27:45] "바이브 코딩 1인 창업 부트캠프..." [^175]: @[27:50] "AI 1인 창업의 시대..." [^176]: @[27:53] "3시간 통합 무료... 모든 과정..." [^177]: @[28:04] "파이어베이스튜디오... 곧 없어집니다... 깃허브 코드 스페이스..." [^178]: @[28:15] "좋아요... 다음 주에... 감사합니다."