프로젝트에서 보기 →

AI뉴스 - 구글 풀스택 바이브코딩, Stitch, Cowork Dispatch, Channels, GTC 2026, 미드저니 V8, M2.7 등

태그
기술 AI뉴스 AI 인공지능
시작일
종료일
수정일

https://www.youtube.com/watch?v=fu6-y5seQlE

1. 이건 꼭 알아야 한다

  • [? 질문] 지금 AI·개발 생태계는 “무엇이” 어떻게 바뀌고 있고, 개인/팀은 이 변화 속에서 무엇을 써서 어떤 일을 ‘딸깍’ 수준으로 할 수 있게 되었나? @[00:00]
  • [= 답] 구글은 AI 스튜디오를 “프론트엔드 바이브코딩”에서 “DB·인증·라이브러리까지 포함한 풀스택”으로 끌어올리고, Stitch로 ‘디자인 시스템+프로토타입+음성 수정’까지 붙여 개발-디자인 파이프라인을 통째로 단축시키는 방향을 보여준다. 동시에 클로드/코덱스/오픈클로(오픈소스 에이전트 흐름) 등은 원격 작업·메신저 연동·서브에이전트·클라우드 스케줄링으로 “에이전트가 실제로 일을 굴리는 방식”을 제품화하고 있으며, GTC 2026은 ‘학습’에서 ‘추론(토큰 생산)·AI 팩토리·에이전틱 AI’로 산업의 중심축이 이동했음을 못 박는다. 그 결과, 영상 편집 자동화·브라우저 자동화·AI 직원형 회사·월드 모델·로봇 제어 같은 응용이 빠르게 실전으로 내려오고 있다. @[00:06]@[02:04]@[06:37]@[08:10]@[11:34]@[15:25]@[16:08]@[17:11]@[24:29]

2. 큰 그림

이 영상은 조코딩 채널의 주간 AI 뉴스로, (1) 구글의 “풀스택 바이브코딩/바이브디자인” 강화, (2) 클로드·코덱스·오픈AI·오픈클로 중심의 에이전트 기능 확장, (3) 엔비디아 GTC 2026이 제시한 추론 중심의 산업 전환, (4) 중국·미국 주요 모델/툴 업데이트, (5) 월드 모델·로봇·농업 등 응용 사례까지 폭넓게 연결해 보여준다. @[00:00]@[11:12]@[19:00]@[24:29]
발표의 목적은 “새 모델/신기능 소개”를 넘어서, 개발·디자인·운영·비즈니스가 AI로 압축되는 흐름을 사례와 데모 중심으로 체감시키는 데 있다. @[00:47]@[03:37]@[15:34]@[17:50]

핵심 메시지 3개

  1. 구글은 AI 스튜디오(개발) + Stitch(디자인)로 풀스택 제작을 ‘프롬프트 기반’으로 통합하며, 클라우드 생태계 연동까지 강점으로 밀고 있다. @[00:06]@[01:04]@[02:23]
  2. 에이전트는 “혼자 대답”을 넘어 “원격·메신저·스케줄·서브에이전트”로 실제 업무 흐름을 실행하는 단계로 진입했다. @[05:18]@[06:05]@[06:37]@[08:10]
  3. GTC 2026이 강조한 것은 ‘추론의 시대’—토큰을 더 싸고 더 많이 뽑는 AI 팩토리, 그리고 로봇/자율주행으로 확장되는 엔드게임이다. @[11:34]@[12:02]@[14:08]

3. 하나씩 살펴보기

3.1 구글 AI 스튜디오: “프론트엔드 바이브코딩”에서 “풀스택”으로 업그레이드

📸 0:00

3.1.1 무엇이 바뀌었나: 풀스택 + 프로덕션급 제작 가능 강조

영상은 시작부터 **“구글 AI 스튜디오가 새로운 풀스택 바이브코딩 환경으로 업그레이드”**됐다고 말한다.[^1] @[00:00]
기존에는 “간단한 웹사이트, 프론트엔드 위주” 생성이 중심이었는데, 이제는 풀스택이 되었다고 설명한다.[^2] @[00:06]
여기서 말하는 풀스택의 의미를 영상은 기능 항목으로 풀어준다:

  • 프롬프트만으로 프로덕션급 애플리케이션 제작 가능하다고 주장[^3] @[00:13]
  • 외부 라이브러리 설치, 데이터베이스, **인증(authentication)**까지 통합 지원한다고 언급[^4] @[00:16]

특히 인증은 개발자들이 시간을 많이 쓰는 영역으로, 발표자는 “구글 로그인 기반 구현을 조코딩 강의에서도 다뤘는데 시간이 걸렸는데, 이제는 바로 된다”고 체감 포인트로 강조한다.[^5] @[00:22]

또 프레임워크 지원 범위도 확장됐다며, React/Angular뿐 아니라 Next.js도 새로 지원하여 Next.js 앱까지 만들 수 있다고 소개한다.[^6] @[00:29]

3.1.2 사용 흐름 데모: Build 메뉴에서 프롬프트 입력 → 즉시 생성

발표자는 실제로 사용해봤다며, 접근 방법을 “구글 AI 스튜디오 접속 → 왼쪽 메뉴 두 번째 ‘Build’ 항목”으로 안내한다.[^7] @[00:35]@[00:42]

이후 핵심은 **“여기에 진짜 프롬프트만 입력하면 된다”**는 메시지다.[^8] @[00:47]

3.1.3 트위터 클론 ‘딸깍’ 데모: 글쓰기/좋아요/퍼블리시/실시간 사용까지

이전 테스트 사례로 “트위터 클론 만들어 줘”라고 했더니 “딸깍” 수준으로 트위터 클론이 나왔다고 말한다.[^9] @[00:51]@[00:55]

단순 UI가 아니라:

  • **포스트(글 작성)**하면 실제로 글이 써지고
  • 좋아요도 눌러준다고 하며
  • 원래 구현하려면 “상당히 걸렸던 것”이 바로 된다는 점을 강조한다.[^10] @[00:55]@[01:00]

배포도 “Publish”를 누르면 구글 클라우드 프로젝트와 연동되어 URL로 바로 노출된다고 설명한다.[^11] @[01:04]
여기에 구글 로그인 사용자가 실제로 글 써서 되는지 확인해보라고 말하며, 본인이 확인했을 때 “샘플 데이터 추가”가 되었고 “진짜 된다”고 반응한다.[^12] @[01:10]@[01:12]

또한 “지금 라이브 297명 들어와 있는데 실시간으로 달린다”고 말해, 단순 로컬 데모가 아니라 동시 사용자 트래픽/실시간 사용도 시연 포인트로 삼는다.[^13] @[01:14]

이 장면에서 발표자는 과장된 비유로 “트위터(가치 440억 달러, 약 55~60조)를 딸깍으로 만들어버린 것”이라고 말한다.[^14] @[01:25]
여기서 핵심은 “유사 서비스의 핵심 기능(로그인·글쓰기 등)이 AI 스튜디오에서 통합 제공되는 경험”을 강조하는 것이다.

3.1.4 내부 구현 관점: 기능 정의 → 프론트 생성 → 오류 수정 → 퍼블리시

발표자는 이 결과가 “AI로 프론트를 짠 것”이라고 말하면서, 자신이 한 일은 기능 정의를 넣고, 이후 AI가 알아서 만들고, 오류 난 것을 수정 지시하고, 퍼블리시 가능하게 만들었다는 흐름을 말한다.[^15] @[01:30]@[01:36]

또한 중요한 포인트로 “Gemini 3 Flash로 만들고 있다. 프로도 아니고 Flash만으로도 이런 게 나와버린다”고 말해 모델 등급이 낮아도 결과가 강력하다고 강조한다.[^16] @[01:36]@[01:41]

3.1.5 시장 영향 전망: 러버블/레플릿과 경쟁, 구글 클라우드 생태계의 위력

이 경험을 바탕으로 “러버블, 레플릿 같은 서비스와 경쟁이 될까”라는 질문을 던지며, **구글 클라우드 생태계가 워낙 잘 돼 있어 연동이 바로 되면 구글이 바이브코딩 시장을 ‘잡아먹지 않을까’**라는 전망을 제시한다.[^17] @[01:48]@[01:53]


3.2 구글 Stitch: “바이브 디자인”을 디자인 시스템+프로토타입+음성 대화로 확장

📸 1:14

3.2.1 Stitch의 정체: AI 네이티브 바이브 디자인 플랫폼, 자연어/음성 입력

개발에서 끝이 아니라 “구글의 AI 네이티브 바이브 디자인 플랫폼 Stitch가 새롭게 업그레이드”됐다고 소개한다.[^18] @[01:59]@[02:04]

기능은 다음처럼 설명된다:

  • 자연어로 고품질 UI 디자인 진행 가능[^19] @[02:06]
  • “말(음성)로도 할 수 있게 됐다”는 업데이트[^20] @[02:09]

3.2.2 결과물 특징: 화면만 뽑는 게 아니라 “디자인 시스템”부터 만든다

“랜딩 페이지 디자인”을 입력하자 전문 디자이너가 만든 듯한 디자인이 나온다고 보여주면서, Stitch가 단순 시안 생성이 아니라 디자인 시스템 자체를 먼저 만든다고 강조한다.[^21] @[02:16]@[02:23]

영상에서 디자인 시스템의 구성요소로 폰트, 컬러 등을 언급하며, 그 시스템을 기반으로 전체 디자인이 전개되고, 시스템 변경 시 적용이 싹 바뀌는 것을 “디자인 시스템이 싹 적용돼 다 바꿔준다”로 표현한다.[^22] @[02:26]@[02:34]

3.2.3 프로토타입/상호작용/보이스 모드: ‘자비스처럼 대화하며 수정’

Stitch는 정적인 디자인에서 끝나지 않고:

  • 프로토타입(상호작용)까지 가능[^23] @[02:39]
  • 보이스(음성) 입력으로도 가능[^24] @[02:43]
  • “음성 모드 하면 자비스랑 얘기해서 아이언맨처럼 얘기하면서 디자인”한다고 비유한다.[^25] @[02:46]

발표자는 “바로 색깔 바꿔주는 것을 볼 수 있다”는 식으로 실시간 반응을 보여주는 포인트를 짚는다.[^26] @[02:56]

3.2.4 유저 사례 비교와 인상: Stitch vs Claude 결과물 언급

유저 사례를 보며 “왼쪽이 구글 Stitch로 뽑았고 Claude로 만들었다고 하는데 글씨가 멋지게 나온다”는 식으로 타 도구 결과와 비교하며 퀄리티 인상을 전한다.[^27] @[02:59]@[03:01]

3.2.5 조코딩 소개 사이트 데모 + 음성 수정 실험(사이버펑크)

“조코딩을 소개하는 모던하고 멋진 웹사이트 만들어 줘”를 입력해 앱 형태로 만들어보며, Stitch가 먼저 색상 팔레트를 만들고 시작하는 모습을 관찰한다.[^28] @[03:07]@[03:12]

완성된 페이지에는 발표자 추정으로 “인터넷에서 정보를 가져온 것 같다”며 본인 관련 콘텐츠(프로덕트 빌더, 동물상 테스트, 순다 피차이 인터뷰 등)가 들어간다고 언급한다.[^29] @[03:28]@[03:34]

이후 음성으로 수정:

  • “색깔 좀 바꿔봐”라고 요청
  • 시스템이 “어떤 색다른 바이브?”를 질문
  • “사이버펑크”라고 답하자 “어두운 배경 + 강렬한 네온 컬러로 완전히 바꿔볼게요”라고 응답하며 반영한다.[^30] @[03:41]@[03:48]

다만 결과가 “형광으로 나오는데 구리게 나온다, 프롬프트를 잘 넣어야겠다”라고 말해, 음성/자연어 편집이 가능해도 ‘요구사항 품질’이 결과를 좌우한다는 현실적인 코멘트를 남긴다.[^31] @[03:54]

3.2.6 결론: 구글 생태계 접점이 강해지는 흐름

이 파트를 “전반적으로 풀스택 웹 개발 + 바이브 디자인까지 진행되는 것을 볼 수 있다”로 정리하며, “구글 생태계 접점이 강력해지고 있다”로 연결한다.[^32] @[03:56]@[04:01]


3.3 Firebase Studio 종료(마이그레이션): 구글 서비스 정리와 AI 스튜디오 집중

📸 2:20

구글 AI 스튜디오가 좋아지면서 겹치는 서비스로 보이는 Firebase Studio 프로젝트의 종료 소식을 전한다.[^33] @[04:03]
Firebase Studio는 “2027년까지 풀스택 AI 워크스페이스(클라우드 기반 AI 개발환경)” 방향으로 진행해왔으나, “서비스 종료를 앞두고 있다”고 말한다.[^34] @[04:12]

발표자는 이유를 추정한다:

  • 기능이 AI 스튜디오와 겹쳐서
  • 구글이 AI 스튜디오 자체를 더 밀려는 것 아닐까.[^35] @[04:17]

또한 “개발 지식이 없는 사람도 접근 가능한 방향”으로 가는 흐름으로 해석한다.[^36] @[04:22]

이 과정에서 마이그레이션 안내가 나온다고 말하며, 구글 서비스 종료가 잦다는 점을 “Killed by Google”이라는 사이트(구글이 종료한 서비스 목록) 언급으로 상기시킨다.[^37] @[04:28]@[04:35]


3.4 구글 드라이브 문서 스캐너 개선: 스캔 앱들을 “박살”

📸 3:20

구글 소식으로 “구글 드라이브 문서 스캐너가 좋아졌다”고 소개한다.[^38] @[04:51]
기능 묘사는 구체적이다:

  • 구글 드라이브에서 카메라로 스캔 시
  • 페이지를 넘길 때마다 자동으로 페이지가 등록된다.[^39] @[04:55]

기존에 스캐너 앱이 많았는데 “이제 싹 박살 냈다”, “구글 드라이브만으로도 스캐닝이 가능”하다고 말해, 구글이 기본 앱 기능 확장으로 서드파티 시장을 흡수하는 그림을 제시한다.[^40] @[05:04]@[05:10]


3.5 클로드(Cowork/Code)의 확장: Dispatch, Channels, 클라우드 스케줄링

📸 4:12

3.5.1 Claude Cowork Dispatch: PC에서 하던 일을 폰으로 “가져오기”

“클로드가 업데이트 속도가 어마어마하다”는 말로 시작하며, Claude Cowork를 “클로드 코드(Claude Code)를 더 쓰기 쉬운 데스크탑 버전” 정도로 설명한다.[^41] @[05:15]@[05:18]

여기에 Dispatch 기능이 추가됐는데, 요지는:

  • 컴퓨터에서 하던 작업을 휴대폰으로 들고 오는 기능[^42] @[05:27]
  • 예시: “다운로드 폴더에 있는 PPT를 가져와 키포인트 뽑아줘” 같은 요청을 모바일에서 하면, PC와 연결되어 데스크톱의 파일을 열어 정보를 가져온다.[^43] @[05:34]@[05:41]

발표자는 이를 “오픈 클로 메신저로 소통하는 것처럼” 모바일 앱에서 디스패치로 쓰겠다는 방향으로 이해한다.[^44] @[05:41]@[05:45]

즉, AI가 단순 답변을 넘어서 내 PC의 파일 시스템을 뒤져 작업 결과를 요약/추출하는 시나리오다.[^45] @[05:53]

3.5.2 Claude Code Channels: 텔레그램/디스코드로 지시 → 양방향 통신

또 다른 새 기능으로 Channels를 소개한다.[^46] @[05:57]

  • 텔레그램/디스코드 같은 메신저에서
  • 클로드 코드에 메시지를 보내 작업을 지시할 수 있으며
  • “양방향 통신”이라 결과도 다시 받을 수 있다.[^47] @[06:05]@[06:09]

발표자는 “오픈 클로가 잘 되니까 주요 AI 기업들이 다 적용한다”는 맥락으로, 메신저 기반 오퍼레이션이 표준 UX가 되어가는 흐름을 시사한다.[^48] @[06:18]

3.5.3 Claude Code 클라우드 기반 반복 작업 스케줄링: PC를 꺼도 돈다

이전에도 스케줄링은 있었지만, 과거에는 “내 PC에서 반복 작업” 중심이었다면, 이제는 클라우드에서 돌아가게 할 수 있다고 설명한다.[^49] @[06:34]@[06:41]
따라서:

  • 내 컴퓨터를 꺼도
  • 클라우드 상에서 작업을 수행 가능.[^50] @[06:41]@[06:44]

예시로 “풀 리퀘스트(변경 요청)를 정기적으로 검사” 같은 작업을 등록해 자동 수행하는 시나리오를 든다.[^51] @[06:47]@[06:54]


3.6 Y Combinator CEO의 “제품 출시 스킬” 공개: 역할/단계의 패키징

📸 5:34

실리콘밸리 VC 업계의 유명 조직인 Y Combinator의 CEO “게리 탄”이 클로드 코드를 사용하는 셋업을 공개했다고 전한다.[^52] @[06:58]@[07:05]

핵심은 YC가 수많은 초기 스타트업을 검토/투자하며 축적한 “출시 노하우”를 스킬 형태로 만들었다는 것.[^53] @[07:11]@[07:16]

영상은 그 노하우를 “전 과정 스프린트”로 표현하면서 단계들을 나열한다:

  • 생각 → 계획 → 구축 → 검토 → 테스트 → 출시 → 성찰[^54] @[07:24]@[07:31]

또한 단계를 수행하는 “역할”을 다양하게 정의해두었다고 말한다:

  • 오피스아워
  • CEO/창립자 리뷰
  • 엔지니어링 매니저
  • 수석 디자이너
  • 디자인 파트너
  • 수석 엔지니어
  • 디버거 등[^55] @[07:39]@[07:40]

이 스킬을 쓰면 “YC 피드백을 받는 것처럼 서비스 만들기”가 가능해진다는 기대를 제시하며, “스킬들이 많아지는 흐름”으로 연결한다.[^56] @[07:47]@[07:54]


3.7 코덱스(Codex) 서브 에이전트: 병렬 작업 + 컨텍스트 분산(대신 토큰 증가)

📸 6:41

3.7.1 서브 에이전트 지원 시작: 여러 백그라운드 에이전트로 나눠 시키기

“코덱스에서 서브 에이전트 지원이 시작”되었다고 소개한다.[^57] @[08:10]
방식은:

  • 서브 에이전트를 소환해
  • 예를 들면 3개의 백그라운드 에이전트가 작업하고
  • 하나가 이를 통합해 결론을 내는 구조.[^58] @[08:15]

발표자는 이로 인해 “훨씬 빠르다”는 장점을 말한다.[^59] @[08:20]

3.7.2 컨텍스트 이점 vs 토큰 비용: 컨텍스트 낭비를 줄이지만 토큰은 늘어난다

하나의 에이전트로만 하면 “컨텍스트가 일찍 꽉 차”는데, 서브 에이전트는 각자 컨텍스트를 따로 갖기 때문에 넉넉하다고 설명한다.[^60] @[08:27]@[08:31]
즉, 시키는 입장에서 “컨텍스트 낭비를 안 하고” 일을 시킬 수 있다.[^61] @[08:31]

대신 토큰 사용량은 확 늘어난다고 경고한다.[^62] @[08:34]
결론적으로 “토큰을 팍팍 소모하면서 많은 작업”을 시키는 방향이 될 거라고 전망한다.[^63] @[08:38]

3.7.3 사용 팁: ‘서브 에이전트’라고 명시해야 불러와진다

본인이 써본 경험으로, 하위 에이전트를 쓰려면 명령어에 “서브 에이전트”라는 말을 일부러 넣어야 불러와진다고 말한다(기본 자동 소환은 안 됨).[^64] @[08:41]@[08:48]

3.7.4 바이럴 레포: 서브 에이전트 컬렉션(깃허브)과 역할 분업 상상

“코덱스 서브 에이전트 컬렉션”이라는 깃허브 레포가 화제라고 하며, API 디자이너, 백엔드 개발자 등 다양한 서브 에이전트 역할 정의가 정리돼 있다고 소개한다.[^65] @[08:54]@[09:01]
발표자는 “이런 애들 싹 다 불러 동시 작업 → 통합”하면 “풀스택 완벽한 서비스”도 가능해질 것이라고 확장 상상을 한다.[^66] @[09:09]@[09:17]

이 파트의 결론은 “AI 에이전트 시대가 본격적으로 왔다”, 그리고 이런 방식이 이론이 아니라 “당장 써먹을 수 있는 개념”이라는 선언이다.[^67] @[09:22]@[09:29]


3.8 오픈AI: 작은 모델(미니/나노) 공개 + 프론트엔드 디자인 팁/스킬 + 슈퍼앱 방향

📸 7:47

3.8.1 5.4 미니/나노: “작은데 성능 차이가 거의 없다”는 인상

오픈AI가 작은 모델도 공개했다고 말한다. “5.4가 성능 높은 모델”이라면, 미니와 나노가 추가 공개된 것.[^68] @[09:32]@[09:38]

일반적으로 “작은 모델은 성능이 딸리겠지”라 생각하지만, 발표자는 벤치마크에서 꽤 높게 나온다고 말한다.[^69] @[09:48]@[09:52]
예로 “소프트웨어 엔지니어, 벤치프로” 같은 개발 능력 벤치마크에서 5.4X 하이 대비 미니/나노가 별 차이가 안 난다고 설명한다.[^70] @[09:55]@[10:01]
반면 GPT-5와의 비교에서는 “차이가 꽤 난다”는 대비를 언급한다.[^71] @[10:01]@[10:04]

따라서 “싸게 쓰고 싶으면 미니/나노로 개발”하는 전략이 가능하다고 제안한다.[^72] @[10:08]

3.8.2 GPT-5.4로 세련된 프론트엔드 디자인하기: 오픈AI 블로그 팁 + 안내 문구 제공

또 화제가 된 게시물로 “GPT 5.4로 세련된 프론트엔드 디자인하기”를 언급한다.[^73] @[10:15]@[10:18]
이는 오픈AI가 공개한 블로그 글이며, 프론트엔드 디자인을 잘하기 위한 팁과 함께 **안내 문구(프롬프트 템플릿)**도 제공한다고 한다.[^74] @[10:22]@[10:27]

이를 복사해 GPT 5.4에 코딩 지시할 때 넣으면 더 예쁜 프론트를 만들 수 있다는 설명이다.[^75] @[10:27]@[10:30]

또한 디자인 원칙을 제공하고, 심지어 스킬로도 제공해 코덱스 앱에서 프론트엔드 스킬 설치 후 쓰면 랜딩 페이지 퀄리티가 좋아질 수 있다고 말한다.[^76] @[10:33]@[10:38]

3.8.3 다음 행보: 챗GPT·코덱스·브라우저를 통합한 AI 슈퍼앱

오픈AI의 다음 행보로 “챗GPT, 코덱스, 브라우저를 통합한 AI 슈퍼앱”을 만들겠다고 한다며, 목적은 사용자 경험 단순화라고 설명한다.[^77] @[10:51]@[10:55]

여러 작업(코딩, 일반 질문, 웹브라우징 기반 작업)을 하나로 통합하면 사용자는 “별 생각 없이 직관적으로 AI를 사용”할 수 있다는 전망이다.[^78] @[11:00]@[11:06]


3.9 GTC 2026(엔비디아): “추론의 시대”와 AI 팩토리, 토큰 효율, 추론 칩, 에이전틱 플랫폼, 로보틱스

📸 9:22

3.9.1 행사 성격과 주요 세션

이번 주 빅 이벤트로 엔비디아 GTC 2026을 소개하며 “AI 업계 최대 행사”급으로 표현한다.[^79] @[11:12]
젠슨 황(“젠슨왕”)의 키노트를 포함해 다양한 세션이 진행됐고, 주요 내용을 훑겠다고 한다.[^80] @[11:17]@[11:25]

3.9.2 키노트 테마: 학습→추론, AI 팩토리, 토큰 효율

키노트 시작부터 “이제는 추론의 시대”라고 하며 AI 팩토리를 강하게 강조했다고 전한다.[^81] @[11:34]
이전 AI는 학습에 치우쳤지만 이제는 추론과 AI 팩토리에 맞춰져 있으며, “토큰을 효율적으로 뽑아내야 한다”는 메시지가 핵심이라고 요약한다.[^82] @[11:38]@[11:45]

3.9.3 차세대(베라 루빈)와 토큰 효율 10배 주장

다음 세대로 “베라 루빈(Blackwell 다음)”을 강조하면서 큰 모델 쪽 토큰 효율이 10배 좋아진다는 수치를 제시한다.[^83] @[11:49]@[11:53]
즉, 블랙웰로 뽑던 토큰과 비교해 베라 루빈으로는 효율이 10배라서, 기업 입장에서는 “비용이 10분의 1로 줄어드는 것”이라 안 쓸 이유가 없다고 말한다.[^84] @[12:02]@[12:05]

3.9.4 HBM4 언급: 한국 기업(하이닉스/삼성) 맥락

HBM4 도입도 언급하며, “우리나라 잘됐다”는 식으로 하이닉스·삼성전자의 HBM 경쟁력을 응원한다.[^85] @[12:07]@[12:09]

3.9.5 추론 특화 칩: 그록(Groq) 인수, LPU/LPX, SRAM 내장으로 이동 경로 단축

또 강조된 부분으로 추론 칩을 들며, 엔비디아가 **그록(Groq)**을 인수했다고 말한다.[^86] @[12:13]@[12:17]
그록은 **LPU(추론 특화 칩)**를 만드는데, 원리를 다음처럼 설명한다:

  • 데이터가 왔다 갔다(메모리 이동)하면 시간이 오래 걸림
  • HBM은 밴드위스를 넓혀 이동을 빠르게 함
  • 그록은 칩 안에 SRAM(내부 램)을 엄청 박아 아예 이동 경로를 줄였다
  • “칩 안에 램이 있으니까” 추론이 엄청 빠르다.[^87] @[12:22]@[12:28]@[12:35]@[12:38]

이런 추론 특화 칩을 연결해 LPX라고 부르고, 여러 개를 뭉쳐 “추론을 엄청 빠르게 하겠다”는 방향을 보여줬다고 한다.[^88] @[12:42]@[12:45]

효과로는:

  • 생산(처리) 요율 최대 35배까지 끌어올림
  • 비용은 10분 수준으로 낮춤[^89] @[12:49]@[12:52]

발표자는 그록이 “엄청 빠르다”는 체감 예로 “조코딩 소개 5000자 글 써줘”를 넣으면 바로 나온다고 말한다.[^90] @[12:56]@[13:05]

3.9.6 에이전틱 AI와 오픈클로: 젠슨의 극찬 + 네모클로(NemoClaw) 발표

소프트웨어 플랫폼에서도 “에이전틱 AI 시대”라 하며, 젠슨 황이 **오픈 클로(OpenClaw/OpenClou로 표기되지만 맥락상 오픈소스 에이전트 프로젝트)**를 “역사상 가장 훌륭한 오픈소스 프로젝트”라고 극찬했다고 전한다.[^91] @[13:16]@[13:21]

또 오픈 클로의 스타 수가 수직 상승해 리액트/리누스 같은 유명 프로젝트를 뛰어넘는 수준이라고 설명한다.[^92] @[13:21]@[13:34]

이 흐름에서 엔비디아는 오픈클로와 유사한 기업용 버전으로 **‘네모클로’**를 만들었다고 공개한다.[^93] @[13:34]@[13:39]
깃허브를 보면 기본 모델로 NVIDIA Nemotron 3 Super를 사용하며, 이는 “에이전트 기능이 잘 동작하는 가성비 좋은 오픈소스 모델”이라고 설명한다.[^94] @[13:45]@[13:55]

기업용으로 보안 강화도 했고, 설치도 “한 줄”로 된다고 언급한다.[^95] @[13:55]@[14:04]

3.9.7 로보틱스/자율주행, 옴니버스 시뮬레이션, 올라프 데모

GTC에서 AI 팩토리 외에도 자율주행과 로보틱스를 강조했으며, 로보틱스 데모로 “올라프”가 등장했다고 한다.[^96] @[14:06]@[14:08]

설명은:

  • 옴니버스(시뮬레이션 세계)에서 훈련
  • 실제 로봇에 적용하니 실제로 돌아다니고 대화도 가능하다는 식의 미래상을 보여줌.[^97] @[14:19]@[14:23]

3.9.8 GTC 결론: “AI 에이전트 + 추론의 시대”

GTC 2026 전체를 “AI 에이전트와 추론의 시대” 강조로 마무리한다.[^98] @[14:27]@[14:31]


3.10 비용 문제의 대응: Claude Router(오픈소스)로 78% 절감, 난이도 기반 라우팅

📸 10:38

오픈클로 기반 시스템의 단점으로 API 비용이 많이 나오는 문제를 들며, 이를 줄이는 **클로드 라우터(Claude Router)**가 등장했다고 소개한다.[^99] @[14:31]@[14:38]

수치로는 무려 78%까지 절감 가능하다고 한다.[^100] @[14:50]@[14:55]

작동 방식은:

  • 라우터를 앞단에 붙이면
  • 모든 요청을 1ms 미만의 속도로 복잡도 등을 고려해 점수화
  • 가장 효율적인 모델로 라우팅한다.[^101] @[15:01]

예시로 난이도별로 모델을 다르게:

  • “2+2는?” 같은 쉬운 질문은 DeepSeek 같은 저렴한 모델
  • “기사 요약”은 조금 무거운 모델
  • “React 컴포넌트”는 Claude Sonnet(상대적으로 상급) 등[^102] @[15:01]@[15:08]

또 “100% 오픈소스”라고 강조하며, 적용 시 저렴하게 사용할 수 있다고 말한다.[^103] @[15:16]@[15:22]


3.11 오픈클로 기반 영상 제작+프리미어 편집 자동화 데모: “시스템 만들기 어렵지 않다”

📸 11:59

바이럴 영상으로, 오픈 클로를 이용해 영상 생성 → 프리미어 프로 가져오기 → 자동 편집 → 완성까지 수행했다는 사례를 소개한다.[^104] @[15:25]@[15:34]

이 사례가 의미하는 바를 발표자는 다음처럼 연결한다:

  • 영상 생성/편집 자동화를 시킬 수 있다
  • 이런 시스템은 “진짜 어렵지 않은 것 같다”
  • 왜냐면 바이브 코딩으로 만들 수도 있고, 오픈클로에 시키면 알아서 해주기 때문.[^105] @[15:38]@[15:46]

다만 편집을 잘하게 하려면 “내 편집 스타일이 어떠니” 같은 스킬 설정/정제가 중요하다고 덧붙인다.[^106] @[15:50]@[16:00]


3.12 Browser Use CLI 2.0: 터미널 기반 브라우저 자동화, CDP 연동

📸 13:05

유용한 도구로 Browser UseCLI 2.0을 소개한다.[^107] @[16:08]@[16:13]
이건 브라우저를 사용할 수 있는 CLI 기반 도구이며, 요즘 MCP가 화제지만 CLI 도구도 주목받는 이유를 설명한다:

  • 클로드 코드/코덱스 같은 도구들이 터미널 베이스로 돌아가
  • 굳이 MCP로 연결하지 않아도 CLI로 브라우저 자동화 연결이 편리.[^108] @[16:17]@[16:24]

데모 시나리오:

  • 클로드 코드에 “브라우저 유즈 설치해서 내 브라우저랑 연결해. X.com 이동해”라고 하면
  • CLI 기반으로 브라우저를 조작해 접속한다.[^109] @[16:30]@[16:38]

또 “최근 알림 뭐야?”라고 하면 알림을 가져온다고 말한다.[^110] @[16:38]@[16:43]

기술적으로는 CDP(Chrome DevTools Protocol), 즉 크롬 개발자 도구와 연결해 데이터를 이용할 수 있다고 설명한다.[^111] @[16:43]@[16:46]


3.13 ‘라이브(Live?)’ 자율 직원: AI 에이전트로 회사를 만들고 운영한다는 컨셉

📸 14:19

“라이브라는 새로운 자율 직원이 등장”했다고 소개하며, 메시지는 “AI 직원을 뽑아서 컴퍼니를 만드세요”다.[^112] @[16:48]@[17:00]

예시로 “보이스 에이전트 SaaS를 만들어줘”를 던지면:

  • 시장 분석가
  • 보이스 AI 담당자
  • 브랜드 전략가 등
    여러 AI 에이전트가 협업해 회사를 만든다는 식으로 소개한다.[^113] @[17:05]@[17:11]

광고 문구처럼 “매출도 올려준다”를 언급하며, 구체적으로는 각 에이전트가 다음을 “개인 소유”로 가진다고 설명한다:

  • 개인 컴퓨터
  • 개인 은행 계좌
  • 개인 법인
  • 개인 이메일
  • 개인 계정 정보
  • 개인 휴대전화[^114] @[17:15]@[17:19]

그리고 “사람이 전혀 개입하지 않는다”고 말한다.[^115] @[17:23]

작업 범위로는:

  • SEO, GEO
  • 랜딩 페이지
  • 아웃바운드 영업
  • 풀스택 앱
  • 링크드인 게시물
  • 회계 등 “다 알아서” 한다고 한다.[^116] @[17:27]

링크드인 유지/영업 메시지 자동 발송 같은 장면을 예로 들며, “AI 에이전트가 일하는 회사 형태가 자리잡아 간다”고 해석한다.[^117] @[17:31]@[17:44]

이 파트는 앞서 언급한 서브 에이전트/스킬 전문화 흐름과 연결되며, “진짜 1인 창업의 시대”라는 결론으로 이어진다.[^118] @[17:50]@[18:03]


3.14 오픈클로 연관: 3D 오피스(오픈클로가 하는 일을 시각화)

📸 15:46

오픈클로가 화제가 되며 파생 제품이 나오는데, **“오픈클로 3D 사무실”**이 바이럴이었다고 소개한다.[^119] @[18:06]@[18:09]
이는 오픈클로가 무슨 일을 하는지 시각적으로 3D 오피스 형태로 보여주는 도구로, “직관적으로 게임 형태로 볼 수 있다”는 메시지다.[^120] @[18:12]@[18:21]


3.15 중국 모델/기업 업데이트: GLM 5 Turbo, 샤오미, 미니맥스 M2.7 (자가 개선)

📸 17:00

3.15.1 Zhipu AI(GLM 5 Turbo): 오픈클로 적합, 벤치 언급, 5.1은 오픈소스 예정

중국 기업 “ZI(맥락상 Zhipu AI)”에서 GLM 5 터보가 나왔고, 오픈클로에 잘 적용된다고 한다.[^121] @[18:21]@[18:27]

“Z 클로 벤치”라는 벤치를 언급하며, 오퍼스가 가장 바깥쪽(최상)이고 GLM 5 터보도 높은 성능이라고 말한다.[^122] @[18:35]@[18:41]

다만 GLM 5는 API 형태로 사용해야 한다고 하며, 불만이 많아서인지 리드가 “GLM 5.1은 오픈소스로 공개될 예정”이라고 밝혔다고 전한다.[^123] @[18:45]@[18:57]@[19:00]

3.15.2 샤오미: V2 Pro, Omni(멀티모달), TTS

샤오미도 새 모델을 출시: (1) V2 Pro, (2) Omni(멀티모달), (3) TTS 세 가지라고 소개한다.[^124] @[19:04]@[19:07]

V2 Pro는 핀치 벤치 등에서 점수가 높고, “클로우 이벌(오픈클로 실행/에이전틱 능력 평가)이 중요해졌다”는 맥락을 다시 강조한다.[^125] @[19:10]@[19:16]

종합 점수에서 “Artificial Analysis 종합 등” 기준으로 GLM 5 다음 위치에 샤오미 모델이 있다고 언급한다.[^126] @[19:23]@[19:31]

Omni 모델은 오디오 이해 등 멀티모달 벤치에서 Gemini보다 높다는 점을 놀랍게 언급한다.[^127] @[19:34]@[19:42]

TTS는 중국어/영어 예시를 들며 괜찮긴 하지만 “엄청 잘 나오진 않는 것 같다”는 평가를 덧붙인다.[^128] @[19:46]@[19:57]

3.15.3 미니맥스 M2.7: “자가 개선(Self-improvement)”, 세계 최고급 성능 주장

“중국 모델들이 엄청나다”는 말과 함께, 미니맥스의 자체 진화 모델 M2.7을 소개한다.[^129] @[20:00]@[20:03]

  • “세계 최고 성능” 주장
  • 제목 자체가 “모델 셀프 임프루브먼트(자가 개선)”을 내세움
  • “오퍼스 최고 수준에 거의 근접”, 소프트웨어 벤치 프로에서 코딩 실력이 “오퍼스 급”이라고 강조한다고 전한다.[^130] @[20:07]@[20:16]@[20:20]

3.16 미국 쪽: Cursor의 자체 코딩 모델 Composer 2, 그리고 “기반 모델은 Kimi K2.5?” 논란/인정

📸 18:24

3.16.1 Composer 2 출시: 빠른 속도, 저렴한 가격, 20만 토큰

미국으로 넘어가 Cursor가 새로운 코딩 모델 Composer 2를 출시했다고 소개한다.[^131] @[20:24]@[20:27]

특징으로:

  • “굉장히 빠른데 성능이 좋다”
  • 토큰/초 속도가 빠름
  • 가격이 저렴
  • “Composer 2 Fast”와 “Composer 2”를 공개
  • 20만 토큰 지원
  • 터미널 벤치 등에서 오퍼스보다 높다는 식의 성능 언급[^132] @[20:30]@[20:42]@[20:45]@[20:50]

Cursor 유저는 가성비로 써볼 만하다고 권한다.[^133] @[20:57]

3.16.2 베이스 모델 출처: 오픈소스 기반, Kimi K2.5 사용 추정→Kimi의 공식 축하로 확인

놀라운 점으로 “바닥부터 만든 게 아니라 오픈소스 기반으로 시작”했고, 최종 모델 기여의 “약 1/4이 기본 데이터, 나머지는 학습에서 발생” 같은 언급이 있다고 소개한다.[^134] @[21:04]@[21:11]

이후 한 유저가 파보니 Kimi K2.5 모델을 사용했다고 “밝혀낸” 정황을 말한다.[^135] @[21:22]@[21:27]

그리고 Kimi 측이 공식적으로 인정하며 “Composer 2 출시 축하, 우리 모델 써줘서 감사, Kimi K2가 훌륭한 기반 마련한 것이 자랑스럽다”는 메시지를 냈다고 전한다.[^136] @[21:27]@[21:42]

3.16.3 생태계 논평: 증류/재가공/구독/코드 흡수의 순환 구조

이 사건 때문에 “결국 이런 구조”라며 논평을 제시한다:

  • 미국의 강한 모델(예: Anthropic 등)이 나오면
  • 그걸 기반으로 디스틸레이션(증류)해 Kimi K2 같은 모델이 나오고
  • 그걸 다시 가공해 Composer 2가 나오며
  • Cursor는 구독제를 팔고 개발자 코드가 또 흡수되어 훈련된다
  • 이런 생태계가 만들어졌다는 주장.[^137] @[21:42]@[21:59]

3.17 이미지/3D/모션 생성: Midjourney V8, Microsoft MAI Image 2, Nvidia 3D 모션 ‘키모도’

📸 19:31

3.17.1 Midjourney V8: 속도·개인화 강한 이미지 모델

오랜만에 미드저니 소식으로 V8을 출시했다고 한다.[^138] @[22:01]@[22:03]
샘플 퀄리티를 보여주며, 다른 모델과 비교해 “플라스틱 느낌, AI 질감이 있긴 하다”는 인상평을 남긴다.[^139] @[22:06]@[22:10]

3.17.2 Microsoft MAI Image 2: 아레나 리더보드 3위

마이크로소프트가 새 이미지 모델 MAI Image 2를 출시했고, “아레나 리더보드 3위”까지 올라왔다고 소개한다.[^140] @[22:18]@[22:22]

아레나는 모델 선호도를 겨루는 플랫폼으로, “구글·오픈AI 다음으로 MS 모델이 올라왔다”는 점을 강조한다.[^141] @[22:26]@[22:33]

의미 부여는 “MS가 원래 오픈AI에 의존했는데, 자체 모델로 이 정도까지 발전”한 점에 초점을 둔다.[^142] @[22:33]@[22:41]
활용 상상으로 “윈도우 그림판 등에 이런 도구를 쓸 수 있지 않을까”라고 말하며 “나쁘진 않다, 그래도 3등”이라고 평한다.[^143] @[22:41]@[22:50]

3.17.3 Nvidia ‘키모도’: 프롬프트로 3D 모션 생성, 로봇 학습 데이터에 유용

엔비디아가 3D 모션 생성 “키모도”를 공개했고, 로봇 학습 데이터에 유용하다고 한다.[^144] @[22:53]@[22:55]

  • 뛰어가서 점프 같은 모션을 프롬프트만으로 만들고
  • 포즈를 정확히 조절 가능
  • 원하는 움직임 데이터를 만들면 로봇 학습에 쓰기 좋다는 논리다.[^145] @[22:58]@[23:12]

이는 엔비디아가 강조하는 “옴니버스 시뮬레이션에서 학습→현실 적용” 전략과 맞물린다고 연결한다.[^146] @[23:17]@[23:21]


3.18 텍스트로 휴머노이드 실시간 제어: Action(플랫/플랫폼) 데모

📸 20:30

“진짜로 적용되는 게 신기”하다며, 텍스트로 아바타/휴머노이드를 실시간 제어하는 “액션 플랫(플랫폼)”을 소개한다.[^147] @[23:28]@[23:34]

프롬프트 예시:

  • “Raise both(arms)” 입력 → 로봇이 드는 동작
  • “Step backward” → 뒤로 물러남
  • “Kick left leg” → 왼발 차기[^148] @[23:42]@[23:54]

요점은 시뮬레이션이 아니라 로봇단에서도 텍스트 명령이 동작한다는 데 있다.[^149] @[23:38]@[23:42]


3.19 포켓몬고가 만든 초대형 실제 시각 데이터셋: 1.43억 명, 300억 이미지

📸 22:01

포켓몬고 관련 뉴스로, 1억 4,300만 명이 플레이하며 “AI 역사상 가장 큰 규모의 실제 시각 데이터셋”을 구축하고 있었다고 한다.[^150] @[23:58]@[24:05]

나이언틱(포켓몬고 만든 회사)이:

  • 포켓몬고를 통해 수집된 사진 + AR 스캔 데이터
  • 300억 개 이상의 실제 이미지 데이터셋을 구축했다고 발표했다는 내용.[^151] @[24:13]@[24:21]

이 데이터는 배송 로봇의 시각적 내비게이션 같은 AI 개발에 활용 중이라고 한다.[^152] @[24:21]@[24:25]


3.20 ‘서울 월드 모델’: KAIST·네이버·서울대, 스트리트뷰로 대도시 시뮬레이션 생성

📸 22:58

KAIST, 네이버, 서울대가 함께 서울 월드 모델을 공개했다고 소개한다.[^153] @[24:29]@[24:36]

내용은:

  • 실제 대도시(서울)를 배경으로 세계 시뮬레이션 모델을 만들 수 있다
  • 스트리트뷰 이미지를 이용해 시뮬레이션을 만드는 월드 모델 공개[^154] @[24:39]@[24:46]

네이버 AI랩은 네이버지도 제작 과정에서 거리 데이터(스트리트뷰)를 보유하므로, 이를 활용할 수 있다는 맥락을 덧붙인다.[^155] @[24:46]@[24:55]

생성된 영상인데도 “실제 서울을 담은 것 같다”는 감상을 말하며, 공덕 쪽, 강변북로 진입, 한강/여의도 등이 재현되는 듯한 장면을 언급한다.[^156] @[24:55]@[25:10]

활용처로는:

  • 자율주행 데이터 생성
  • 운전 시뮬레이션 등 가능성 제시[^157] @[25:15]@[25:23]

또 흥미로운 점으로, 이 모델 기반으로:

  • 날씨를 바꾸거나
  • 토네이도/홍수 같은 가정 상황을 생성해
  • 재난 상황 시뮬레이션도 가능하다고 말한다.[^158] @[25:23]@[25:30]

3.21 “우리는 영상을 제작하지 않는다, 비디오로 세상을 만든다”: 인스페리토(Insperito?) 4D 세계 모델, 오픈소스 공개(14B)

📸 24:21

인스페리토라는 곳의 슬로건을 인용하며, 비디오를 통해 세상을 만들어내는 실시간 4D 세계 모델을 공개했다고 소개한다.[^159] @[25:33]@[25:39]

방식:

  • 짧은 비디오 클립을 넣으면
  • 3D 월드가 생성되고
  • 사용자가 그 세계를 직접 움직이며 탐험 가능.[^160] @[25:43]@[25:52]

활용 상상:

  • 어떤 영상이든 넣으면 “영상을 탐험하는 게임”을 만들 수 있음
  • 생일 축하 영상도 월드로 탐험
  • 애니메이션을 넣어 애니메이션 세계를 탐험 가능[^161] @[25:55]@[26:09]

놀라운 포인트는 **오픈소스로 공개(코드+웨이트)**됐고, 직접 돌려볼 수 있다는 점.[^162] @[26:09]@[26:12]
모델 규모는 **14B(14 billion)**이라고 언급한다.[^163] @[26:15]@[26:18]


3.22 로봇 근황: ‘로봇 8’의 리얼한 피부, 링커핸드, 인간-로봇 동기화 조종(주먹/따봉), 에어백까지

📸 25:39

“요즘 로봇 8 근황”이라며 피부를 씌운 로봇이 진짜 같다는 반응과 함께 소리까지 들어본다.[^164] @[26:18]@[26:32]

기능적으로 흥미로운 예시로:

  • 베이징 링커봇의 링커 핸드(로봇 손)
  • 손가락으로 볼트/너트를 조이는 동작
  • 다양한 형태에도 적용, 여러 개를 한 번에 돌리는 동작까지 가능[^165] @[26:35]@[26:44]

그리고 만화(건담 등)에서 보던 “내가 움직이면 로봇이 따라 움직이는” 방식이 현실화됐다고 말한다:

  • 사람이 팔을 잡고 움직이면 뒤의 로봇 팔이 따라 움직임
  • 실제로 로봇 팔로 때릴 수 있는 장면이 나오고
  • “에어백도 터진다”는 묘사로 강한 힘/위험성도 함께 보여준다.[^166] @[26:49]@[27:07]

또 “주먹/따봉” 같은 제스처도 구현된다고 하며 “만화에서 나온 게 현실”이라고 감탄한다.[^167] @[27:07]@[27:11]


3.23 농업/IoT+AI: 피터 틸이 투자한 ‘소 목걸이’(20억 달러), 위치 추적·이동 유도, ‘카우고리즘’

📸 26:41

피터 틸이 투자한 “소 관련 스타트업”이 화제라며, 소 목에 두르는 목걸이20억 달러 투자했다고 소개한다.[^168] @[27:11]@[27:15]

목걸이를 채우면:

  • 소가 어디 있는지
  • 무엇을 하는지
  • 전반이 추적된다고 설명한다.[^169] @[27:23]@[27:28]

앱에서 위치를 보고, 버튼을 누르면 소가 원하는 위치로 이동한다는 데모를 언급한다.[^170] @[27:30]@[27:33]

이걸 “AI 기반 소”들이 **‘카우고리즘’**이라는 알고리즘을 사용해 농업 생산성을 향상시키고 있다는 문장으로 정리한다.[^171] @[27:38]@[27:40]


3.24 마무리 홍보: 바이브 코딩 1인 창업 부트캠프 + Firebase Studio 종료에 따른 Codespaces 마이그레이션

📸 27:35

마지막에 “바이브 코딩 1인 창업 부트캠프” 홍보를 하며 “AI 1인 창업의 시대”라고 재강조한다.[^172] @[27:45]@[27:53]

  • “무료로 배우고 싶으면 3시간 통합 무료 영상”이 있고
  • 바이브 코딩으로 1인 창업하는 모든 과정을 배울 수 있다고 안내한다.[^173] @[27:53]@[27:58]

또한 공지로, 원래는 Firebase Studio 도구를 사용해 바이브 코딩을 가르쳤는데, 이제 곧 없어지므로 GitHub Codespaces로 옮기는 과정을 보여주겠다고 말한다.[^174] @[28:04]@[28:13]

이후 좋아요 요청과 다음 주 AI 뉴스 예고로 종료한다.[^175] @[28:15]@[28:24]


4. 핵심 통찰

  1. ‘개발’의 자동화 단위가 프론트 → 풀스택(인증/DB/배포)으로 확장되면서, 제품의 최소 단위가 더 작아진다. 트위터 클론 데모에서 중요한 건 UI 생성이 아니라 “구글 로그인·배포·실사용”까지 연결된 경험이다.[^9]@[11] @[00:51]@[01:04]
  2. ‘디자인’도 결과물 이미지가 아니라 “디자인 시스템+프로토타입+대화형 수정”이 자동화 단위가 된다. Stitch가 팔레트/폰트 등 시스템을 먼저 만들고 그 위에서 변경을 전파하는 흐름은, 실무에서 가장 비용이 큰 “일관성 유지”를 자동화한다.[^21]@[22] @[02:23]@[02:32]
  3. 에이전트 경쟁의 중심은 모델 성능만이 아니라 “작업을 어디까지 실행할 수 있나(원격·메신저·스케줄·서브에이전트)”로 이동한다. Dispatch/Channels/클라우드 스케줄링은 AI가 ‘대답’에서 ‘운영’으로 가는 UI/아키텍처를 보여준다.[^42]@[47]@[50] @[05:27]@[06:09]@[06:41]
  4. **GTC 2026이 못 박은 산업 메시지는 “토큰 생산성(추론 효율) = 경쟁력”**이다. 10배 효율, 35배 처리, 비용 1/10 같은 숫자는 단순 하드웨어 스펙이 아니라 “AI 팩토리” 관점의 KPI로 제시된다.[^83]@[89] @[11:53]@[12:49]
  5. 오픈소스/증류/재가공/구독 데이터의 순환이 ‘모델-제품-데이터’ 생태계를 형성하고 있다는 논평이 등장한다. Cursor Composer 2의 기반 모델 논란은, 모델 독자개발보다 “조합·튜닝·제품화”가 더 빠른 전략이 되는 현실을 드러낸다.[^137] @[21:42]
  6. 월드 모델과 로봇 제어 사례는 AI가 텍스트·이미지 생성 수준을 넘어 ‘물리/공간’으로 확장되고 있음을 보여준다. 서울 월드 모델(스트리트뷰 기반), 비디오→4D 월드(오픈소스), 텍스트→휴머노이드 동작은 같은 흐름 위에 있다.[^154]@[160]@[148] @[24:43]@[25:43]@[23:42]

5. 헷갈리는 용어 정리 (해당 시에만)

  • 바이브 코딩(Vibe coding): 영상 맥락에서 “정교한 코드 작성”보다 자연어 프롬프트로 기능을 정의하고 AI가 구현·수정·배포까지 수행하는 개발 방식/경험을 의미한다.[^8] @[00:47]
  • 풀스택(Full-stack): 프론트엔드뿐 아니라 DB, 인증, 라이브러리 설치, 배포 등 앱 운영에 필요한 전 계층을 포함하는 개발 범위를 뜻한다.[^4] @[00:16]
  • Stitch(구글): 자연어/음성 입력으로 UI를 만들되, 디자인 시스템 생성 → 시스템 기반 화면 생성 → 프로토타입/상호작용까지 다루는 “바이브 디자인” 도구로 소개된다.[^21]@[23] @[02:23]@[02:39]
  • Dispatch(클로드 코워크): 휴대폰에서 AI에 요청하면 내 데스크탑과 연결해 다운로드 폴더 등 파일을 열고 정보를 가져오는 원격 연동 기능으로 설명된다.[^43] @[05:34]
  • Channels(클로드 코드): 텔레그램/디스코드 등 외부 메신저로 클로드 코드에 작업 지시를 보내고 양방향으로 결과를 받는 기능.[^47] @[06:09]
  • 서브 에이전트(Sub-agents): 한 에이전트가 일을 쪼개 여러 백그라운드 에이전트에 병렬로 맡긴 뒤 통합하는 방식. 컨텍스트를 분산하지만 토큰 소모는 증가한다고 설명된다.[^58]@[62] @[08:15]@[08:34]
  • AI 팩토리(AI Factory): GTC 2026 맥락에서 “학습”이 아니라 추론을 통해 토큰을 대량·효율적으로 생산하는 인프라/운영 관점의 개념으로 제시된다.[^81]@[82] @[11:34]@[11:45]
  • CDP(Chrome DevTools Protocol): 브라우저 자동화 도구가 크롬 개발자 도구와 연결해 브라우저 제어/데이터 접근에 쓰는 프로토콜로 언급된다.[^111] @[16:43]
  • 월드 모델(World model): 스트리트뷰/비디오 등 현실 데이터를 기반으로 탐험 가능한 시뮬레이션 세계를 생성하는 모델들을 통칭하는 맥락으로 사용된다(서울 월드 모델, 비디오 기반 4D 세계 모델).[^^154] @[24:43]


참고(콘텐츠 정보)

  • 콘텐츠: AI뉴스 - 구글 풀스택 바이브코딩, Stitch, Cowork Dispatch, Channels, GTC 2026, 미드저니 V8, M2.7 등
  • 채널: 조코딩 JoCoding
  • 길이: 28분 41초
  • 링크: https://www.youtube.com/watch?v=fu6-y5seQlE

[^1]: “구글 AI 스튜디오가 새로운 풀스택 바이브 코딩 환경으로 업그레이드” 언급. @[00:00]
[^2]: 기존엔 프론트엔드 위주, 이제 풀스택. @[00:06]
[^3]: “프롬프트만으로 프로덕션급 어플리케이션 제작” 주장. @[00:13]
[^4]: 외부 라이브러리/DB/인증 통합 지원. @[00:16]
[^5]: 구글 로그인 구현이 “바로 된다”는 체감. @[00:22]
[^6]: Next.js 지원 추가. @[00:29]
[^7]: AI 스튜디오 접속 및 Build 메뉴 안내. @[00:35]@[00:42]
[^8]: “프롬프트만 입력하면 된다” 강조. @[00:47]
[^9]: “트위터 클론 만들어 줘” → 딸깍 생성. @[00:51]
[^10]: 글쓰기/좋아요 구현이 바로 됨. @[00:55]@[01:00]
[^11]: Publish → 구글 클라우드 프로젝트 연동, URL 노출. @[01:04]
[^12]: 샘플 데이터 추가, “진짜 돼요”. @[01:10]@[01:12]
[^13]: 라이브 297명 실시간 사용 언급. @[01:14]
[^14]: 트위터 가치(440억 달러) 비유. @[01:25]
[^15]: 기능 정의, 오류 수정, 퍼블리시 흐름. @[01:30]@[01:36]
[^16]: Gemini 3 Flash로도 가능. @[01:36]@[01:41]
[^17]: 러버블/레플릿과 경쟁, 구글 클라우드 연동 강점. @[01:48]@[01:53]
[^18]: Stitch 업그레이드 소개. @[01:59]@[02:04]
[^19]: 자연어로 고품질 UI. @[02:06]
[^20]: 말(음성)로도 가능. @[02:09]
[^21]: 랜딩 페이지 디자인 결과, 전문 디자이너급, 디자인 시스템 생성. @[02:16]@[02:23]
[^22]: 폰트/컬러 등 시스템 기반 적용. @[02:26]@[02:34]
[^23]: 프로토타입(상호작용) 가능. @[02:39]
[^24]: 보이스 입력 가능. @[02:43]
[^25]: 자비스/아이언맨 비유. @[02:46]
[^26]: 색깔 즉시 변경. @[02:56]
[^27]: 유저 사례(스티치 vs 클로드) 인상. @[02:59]@[03:01]
[^28]: “조코딩 소개 사이트” 프롬프트, 팔레트부터 생성. @[03:07]@[03:12]
[^29]: 인터넷에서 정보 가져온 듯, 콘텐츠 항목 언급. @[03:28]@[03:34]
[^30]: 음성으로 사이버펑크 요청→네온 컬러 적용. @[03:41]@[03:51]
[^31]: 프롬프트 품질 필요, 결과 아쉬움 언급. @[03:54]
[^32]: 풀스택 개발+바이브 디자인, 구글 생태계 접점 강화. @[03:56]@[04:01]
[^33]: Firebase Studio 종료 소식. @[04:03]
[^34]: 2027년까지 풀스택 AI 워크스페이스였으나 종료. @[04:12]
[^35]: 기능 겹침, AI 스튜디오를 밀려는 추정. @[04:17]
[^36]: 비개발자도 접근 가능한 방향. @[04:22]
[^37]: 마이그레이션 안내, Killed by Google 언급. @[04:28]@[04:35]
[^38]: 구글 드라이브 문서 스캐너 개선. @[04:51]
[^39]: 페이지 넘길 때 자동 등록. @[04:55]
[^40]: 스캐너 앱 시장 대체 표현. @[05:04]@[05:10]
[^41]: 클로드 업데이트 속도, Cowork 설명. @[05:15]@[05:18]
[^42]: Dispatch 기능 추가, 폰으로 가져오기. @[05:27]
[^43]: 다운로드 폴더 PPT 키포인트 추출 예시. @[05:34]@[05:38]
[^44]: 메신저처럼 모바일에서 이용. @[05:41]@[05:45]
[^45]: 원격으로 PC 파일을 AI가 뒤져 알려줌. @[05:53]
[^46]: Channels 기능 소개. @[05:57]
[^47]: 텔레그램/디스코드로 작업 지시, 양방향 통신. @[06:05]@[06:09]
[^48]: 오픈클로 영향으로 주요 기업들이 적용. @[06:18]
[^49]: 스케줄링의 클라우드 실행. @[06:34]@[06:41]
[^50]: PC 꺼도 동작. @[06:41]@[06:44]
[^51]: PR 정기 검사 예시. @[06:47]@[06:54]
[^52]: YC CEO 게리 탄의 셋업 공개. @[06:58]@[07:05]
[^53]: 출시 노하우를 스킬 형태로. @[07:11]@[07:16]
[^54]: 생각-계획-구축-검토-테스트-출시-성찰 단계. @[07:24]@[07:31]
[^55]: 다양한 역할 스킬 나열. @[07:39]@[07:47]
[^56]: YC 피드백처럼 개발 가능, 스킬 증가 흐름. @[07:47]@[07:54]
[^57]: 코덱스 서브 에이전트 지원. @[08:10]
[^58]: 3개 백그라운드 에이전트→통합. @[08:15]
[^59]: 속도 향상 언급. @[08:20]
[^60]: 컨텍스트가 빨리 차는 문제, 분산 이점. @[08:27]@[08:31]
[^61]: 컨텍스트 낭비 감소. @[08:31]
[^62]: 토큰 사용량 증가. @[08:34]
[^63]: 토큰을 많이 쓰며 대량 작업 가능. @[08:38]
[^64]: “서브 에이전트” 명시 필요. @[08:41]@[08:48]
[^65]: 서브 에이전트 컬렉션 레포, 역할 정의. @[08:54]@[09:01]
[^66]: 동시 작업→풀스택 서비스 상상. @[09:09]@[09:17]
[^67]: 에이전트 시대 본격화, 실전 개념. @[09:22]@[09:29]
[^68]: 오픈AI 미니/나노 공개. @[09:38]
[^69]: 작은데 성능 높음. @[09:48]@[09:52]
[^70]: 벤치에서 5.4X 하이 대비 큰 차이 없음. @[09:55]@[10:01]
[^71]: GPT-5 대비는 차이 있음 언급. @[10:01]@[10:04]
[^72]: 저렴하게 쓰려면 미니/나노 전략. @[10:08]
[^73]: “세련된 프론트엔드 디자인하기” 화제. @[10:15]@[10:18]
[^74]: 오픈AI 블로그 팁/안내 문구 제공. @[10:22]@[10:27]
[^75]: 프롬프트로 디자인 퀄리티 향상. @[10:27]@[10:30]
[^76]: 디자인 원칙+스킬 제공, 코덱스 앱 설치. @[10:33]@[10:38]
[^77]: AI 슈퍼앱(챗GPT/코덱스/브라우저 통합) 계획. @[10:55]
[^78]: UX 단순화, 직관적 사용. @[11:00]@[11:06]
[^79]: GTC 2026 소개. @[11:12]
[^80]: 젠슨 키노트/세션 언급. @[11:17]@[11:25]
[^81]: 추론의 시대, AI 팩토리 강조. @[11:34]
[^82]: 토큰 효율 강조. @[11:45]
[^83]: 토큰 효율 10배. @[11:53]
[^84]: 비용 1/10 주장. @[12:02]@[12:05]
[^85]: HBM4, 하이닉스/삼성 언급. @[12:07]@[12:09]
[^86]: 그록 인수, 추론 칩. @[12:13]@[12:17]
[^87]: SRAM 내장으로 이동 경로 단축 설명. @[12:22]@[12:38]
[^88]: LPX로 묶어 추론 가속. @[12:42]@[12:45]
[^89]: 처리 35배, 비용 1/10. @[12:49]@[12:52]
[^90]: 그록 속도 체감 예. @[12:56]@[13:05]
[^91]: 오픈클로 극찬. @[13:16]@[13:21]
[^92]: 스타 수 급증, 유명 프로젝트 추월 언급. @[13:21]@[13:34]
[^93]: 네모클로 발표. @[13:34]@[13:39]
[^94]: Nemotron 3 Super 기반. @[13:45]@[13:55]
[^95]: 보안 강화, 한 줄 설치. @[13:55]@[14:04]
[^96]: 자율주행/로보틱스 강조, 올라프. @[14:06]@[14:08]
[^97]: 옴니버스 훈련→현실 동작. @[14:19]@[14:23]
[^98]: GTC 결론(에이전트+추론). @[14:27]@[14:31]
[^99]: API 비용 문제와 Claude Router 등장. @[14:31]@[14:38]
[^100]: 78% 절감. @[14:50]@[14:55]
[^101]: 1ms 미만 분류/점수화/라우팅. @[15:01]
[^102]: 난이도별 모델 배치 예시. @[15:01]@[15:08]
[^103]: 100% 오픈소스. @[15:16]@[15:22]
[^104]: 영상 생성+프리미어 자동 편집 데모. @[15:25]@[15:34]
[^105]: 바이브 코딩/오픈클로로 시스템 구축 쉬움. @[15:38]@[15:46]
[^106]: 편집 스타일 스킬 정제 필요. @[15:50]@[16:00]
[^107]: Browser Use CLI 2.0 소개. @[16:08]@[16:13]
[^108]: 터미널 기반 흐름, MCP 없이도. @[16:17]@[16:24]
[^109]: X.com 접속 자동화. @[16:30]@[16:38]
[^110]: 알림 가져오기 예. @[16:38]@[16:43]
[^111]: CDP(크롬 개발자 도구) 연결. @[16:43]@[16:46]
[^112]: 자율 직원 ‘라이브’ 소개. @[16:48]@[17:00]
[^113]: 여러 에이전트 협업 예. @[17:05]@[17:11]
[^114]: 개인 소유 자원 나열. @[17:15]@[17:19]
[^115]: 사람 개입 없음 주장. @[17:23]
[^116]: SEO/GEO/영업/회계 등 수행. @[17:27]
[^117]: 링크드인 영업 메시지 등. @[17:31]@[17:44]
[^118]: 1인 창업 시대 결론. @[17:50]@[18:03]
[^119]: 오픈클로 3D 오피스 바이럴. @[18:06]@[18:09]
[^120]: 오픈클로 작업 시각화. @[18:12]@[18:21]
[^121]: GLM 5 Turbo 소개. @[18:21]@[18:27]
[^122]: Z 클로 벤치 언급. @[18:35]@[18:41]
[^123]: 5.1 오픈소스 예정 발언. @[18:57]@[19:00]
[^124]: 샤오미 3종 모델. @[19:04]@[19:07]
[^125]: 벤치 높음, 오픈클로 평가 중요. @[19:10]@[19:16]
[^126]: Artificial Analysis에서 GLM5 다음 위치. @[19:23]@[19:31]
[^127]: Omni가 Gemini보다 높다는 언급. @[19:42]
[^128]: TTS 평가. @[19:46]@[19:57]
[^129]: 미니맥스 M2.7 출시. @[20:03]
[^130]: 자가 개선/오퍼스급 주장. @[20:07]@[20:20]
[^131]: Cursor Composer 2 출시. @[20:24]@[20:27]
[^132]: 속도/가격/20만 토큰/벤치 언급. @[20:30]@[20:45]@[20:50]
[^133]: Cursor 유저에게 권장. @[20:57]
[^134]: 오픈소스 기반 시작, 학습 기여 비율 언급. @[21:04]@[21:11]
[^135]: Kimi K2.5 사용 추정 발견. @[21:22]@[21:27]
[^136]: Kimi의 공식 축하/인정. @[21:27]@[21:42]
[^137]: 증류→재가공→구독→코드 흡수 생태계 논평. @[21:42]@[21:59]
[^138]: Midjourney V8 출시. @[22:01]@[22:03]
[^139]: 플라스틱 느낌/AI 질감 평가. @[22:08]@[22:10]
[^140]: MS MAI Image 2, 아레나 3위. @[22:18]@[22:22]
[^141]: 리더보드 맥락. @[22:26]@[22:33]
[^142]: 오픈AI 의존에서 자체 모델 의미. @[22:33]@[22:41]
[^143]: 그림판 활용 상상, “3등”. @[22:41]@[22:50]
[^144]: 엔비디아 3D 모션 생성 키모도. @[22:53]@[22:55]
[^145]: 프롬프트로 모션/포즈 조절, 로봇 학습 활용. @[22:58]@[23:12]
[^146]: 옴니버스 학습 전략과 연결. @[23:17]@[23:21]
[^147]: 텍스트로 휴머노이드 제어 소개. @[23:28]@[23:34]
[^148]: Raise/Step backward/Kick 예시. @[23:42]@[23:54]
[^149]: 로봇단 적용 강조. @[23:38]@[23:42]
[^150]: 포켓몬고 1.43억 명, 최대 시각 데이터셋. @[23:58]@[24:05]
[^151]: 300억+ 이미지 데이터셋 발표. @[24:13]@[24:21]
[^152]: 배송 로봇 내비게이션 개발. @[24:21]@[24:25]
[^153]: 서울 월드 모델 공개. @[24:29]@[24:36]
[^154]: 스트리트뷰 기반 대도시 시뮬레이션. @[24:39]@[24:46]
[^155]: 네이버 지도/거리 데이터 맥락. @[24:46]@[24:55]
[^156]: 공덕/강변북로/한강/여의도 재현 언급. @[25:02]@[25:10]
[^157]: 자율주행 데이터/운전 시뮬레이션 활용. @[25:15]@[25:23]
[^158]: 날씨 변경/토네이도/홍수 시뮬레이션. @[25:23]@[25:30]
[^159]: 비디오로 세상을 만든다, 4D 세계 모델. @[25:33]@[25:39]
[^160]: 비디오 입력→3D 월드→탐험. @[25:43]@[25:52]
[^161]: 게임/생일/애니메이션 탐험 상상. @[25:55]@[26:09]
[^162]: 오픈소스 공개(코드+웨이트). @[26:09]@[26:12]
[^163]: 14B 언급. @[26:15]@[26:18]
[^164]: 로봇 8 피부, 진짜 같음. @[26:18]@[26:32]
[^165]: 링커핸드 볼트/너트 조임. @[26:35]@[26:44]
[^166]: 인간 동작 동기화, 타격, 에어백. @[26:49]@[27:07]
[^167]: 주먹/따봉 제스처, 만화의 현실화. @[27:07]@[27:11]
[^168]: 소 목걸이에 20억 달러 투자. @[27:11]@[27:15]
[^169]: 소 추적. @[27:23]@[27:28]
[^170]: 버튼으로 이동 유도. @[27:30]@[27:33]
[^171]: 카우고리즘 언급. @[27:38]@[27:40]
[^172]: 바이브 코딩 1인 창업 부트캠프 홍보. @[27:45]@[27:53]
[^173]: 3시간 통합 무료 영상 안내. @[27:53]@[27:58]
[^174]: Firebase Studio 종료 → GitHub Codespaces로 이전. @[28:04]@[28:13]
[^175]: 좋아요 요청, 다음 주 예고. @[28:15]@[28:24]

← 프로젝트에서 보기