ChatGPT 안의 새로운 App 과 Apps SDK
- ChatGPT 내부에서 대화형 앱을 사용할 수 있는 기능이 공개됨
- 새로운 앱들은 대화 흐름 속에서 자연스럽게 작동하도록 설계되어, 사용자가 필요할 때 자동으로 제안됨
- 예: “Spotify, 이번 주말 파티용 플레이리스트 만들어줘” → 앱이 자동 실행되어 컨텍스트 기반 결과 제공
- 부동산 관련 대화 중에는 Zillow 앱을 제안해 예산에 맞는 매물 지도를 바로 표시
- Canva를 통해 대화 중 만든 개요를 슬라이드로 변환
-
Coursera 강의를 들으며 ChatGPT에 보충 설명을 요청
- 앱은 자연어 명령과 시각적 인터페이스를 결합해 기존 웹 앱보다 직관적인 사용 경험을 제공
-
Booking.com, Canva, Coursera, Figma, Expedia, Spotify, Zillow 등 파트너 앱이 첫 출시 대상
- 연내 11개의 앱이 추가될 예정: Doordash, Khan Academy, Instacart, Peloton, OpenTable, target, Uber,...
-
앱 제출 및 심사 절차는 올해 말 시작되며, ChatGPT Business·Enterprise·Edu 버전에도 순차 도입 예정
-
앱 디렉터리가 새로 생겨 사용자는 앱을 탐색·검색할 수 있으며, 디자인 및 기능성이 우수한 앱은 대화 내 추천 및 상위 노출
-
Apps SDK
- 개발자는 Apps SDK 프리뷰 버전을 사용해 직접 앱을 제작 및 테스트 가능함
- SDK는 Model Context Protocol(MCP) 을 확장한 구조로, 앱의 로직과 인터페이스 모두 정의 가능함
- SDK는 오픈소스로 공개되어 ChatGPT 외부 플랫폼에서도 동일 표준으로 실행 가능함
- 개발자는 기존 백엔드와 직접 연동, 로그인 및 유료 기능 접근을 지원할 수 있음
- 연내 ChatGPT 내 앱 수익화 모델 및 Agentic Commerce Protocol 기반의 즉시 결제 기능이 지원될 예정임
- 이로써 ChatGPT는 단순한 대화형 도우미를 넘어, 앱 생태계와 상호작용하는 통합 플랫폼으로 진화할 것
AgentKit 공개 – 에이전트 개발·배포·최적화를 위한 완전한 도구 세트
- AgentKit은 Responses API와 Agents SDK의 후속 도구로, 에이전트 구축 과정을 단순화하고 신뢰성을 높이는 통합 플랫폼
- 기존에는 커넥터, 평가 파이프라인, 프롬프트 튜닝, 프론트엔드 구축 등을 개별적으로 처리해야 했으나, 이제 이를 한 환경에서 통합 관리 가능함
-
Agent Builder – 시각적 워크플로우 설계 도구
-
Agent Builder는 드래그 앤 드롭 방식의 시각적 캔버스로 에이전트 로직을 구성하고 버전 관리할 수 있는 환경을 제공
- 미리보기 실행, 인라인 평가 설정, 커스텀 가드레일(Guardrails) 설정 등 빠른 반복 개발에 최적화됨
- Ramp는 이 도구를 통해 수개월 걸리던 복잡한 오케스트레이션을 몇 시간 내 완성했으며, 개발 주기를 70% 단축했다고 밝힘
- 일본의 LY Corporation도 2시간 내 첫 멀티에이전트 워크플로우를 구축함
-
Guardrails – 안전한 에이전트 보호
-
Guardrails는 오픈소스 안전 계층으로, PII 마스킹·탈옥 탐지·비정상 응답 차단 기능을 제공함
-
Python과 JavaScript용 Guardrails 라이브러리를 통해 독립 실행 또는 Agent Builder 내 통합 사용 가능
-
Connector Registry – 데이터 통합 관리
-
Connector Registry는 여러 워크스페이스와 조직 간 데이터 연결을 중앙에서 관리하는 통합 관리 패널
-
Dropbox, Google Drive, SharePoint, Microsoft Teams 등 기본 커넥터와 서드파티 MCP 지원을 포함
- 관리자는 Global Admin Console을 통해 도메인, SSO, API 조직을 통합 관리 가능하며, 이는 Connector Registry 활성화의 필수 조건
-
ChatKit – 대화형 UI 내장 툴킷
-
ChatKit은 에이전트용 채팅 UI를 간단히 제품에 임베드할 수 있는 툴킷
- 스트리밍 응답 처리, 대화 스레드 관리, 모델의 사고 과정 표시 등을 자동 지원
- 웹 또는 앱에 바로 포함 가능하며, 브랜드 디자인에 맞게 테마 커스터마이징 가능
- HubSpot의 고객지원 에이전트 등 다양한 지식 비서·온보딩 가이드·연구 보조 시나리오에 활용 중
-
Evals – 성능 측정 기능 강화
- 신뢰성 높은 에이전트 구축을 위해 Evals에 다음 네 가지 새로운 기능이 추가됨
-
Datasets: 자동 채점기와 인간 주석으로 평가 세트를 빠르게 구축·확장 가능
-
Trace grading: 전체 워크플로우 실행을 평가해 약점을 자동 탐지
-
Automated prompt optimization: 평가 결과를 기반으로 자동 프롬프트 개선
-
Third-party model support: 외부 모델도 평가 가능하도록 지원
-
강화된 파인튜닝(Reinforcement Fine-Tuning)
-
RFT는 개발자가 OpenAI 추론 모델을 특정 목적에 맞게 조정할 수 있게 하는 기능
-
o4-mini 모델에서 일반 제공 중이며, GPT-5용 RFT는 프라이빗 베타 단계로 수십 개 기업이 테스트 중
- 신규 베타 기능
-
Custom tool calls: 모델이 적절한 도구를 시점에 맞게 호출하도록 훈련
-
Custom graders: 특정 사용 사례에 맞춘 맞춤형 평가 기준 설정
-
ChatKit과 Evals는 오늘부터 모든 개발자에게 일반 제공. Agent Builder와 Connector Registry는 베타 단계로 순차 제공되며, 표준 API 모델 요금제 내 포함
- 곧 Workflows API 및 ChatGPT 내 에이전트 배포 옵션도 추가 예정
Codex 정식 출시 – 개발팀을 위한 통합 코드 에이전트 확장
- OpenAI가 클라우드 기반 코드 에이전트 플랫폼 Codex의 정식 출시를 발표하며, Slack 통합, Codex SDK, 관리자 도구 등 3가지 핵심 기능을 추가함
- Codex는 GPT-5-Codex 모델을 기반으로 IDE·CLI·클라우드 환경에서 통합 동작함
- 출시 후 일일 사용량이 8월 대비 10배 증가, 3주간 40조 토큰을 처리하며 가장 빠르게 성장한 모델 중 하나로 평가됨
- OpenAI 내부에서도 전사 엔지니어의 70% 이상이 Codex를 활용해 주간 PR 병합량이 70% 증가, 대부분의 코드 리뷰를 Codex가 자동 수행함
-
Slack 통합
- 팀 채널에서 @Codex를 태그하면 Codex가 대화 맥락을 자동 수집하고 적절한 환경을 선택해 응답 제공
- 결과물은 Codex Cloud 링크로 연결되어, 변경사항 병합·반복 수정·로컬 다운로드 작업이 가능함
- Slack 통합은 협업형 개발 환경에서 코드 리뷰, 자동 수정, 빌드 실행 요청을 자연스럽게 수행할 수 있게 함
-
Codex SDK
- Codex SDK는 Codex CLI의 오픈소스 에이전트 구현체를 외부 애플리케이션에서도 동일하게 활용할 수 있게 하는 개발 키트
- SDK는 TypeScript용으로 우선 제공, 추후 다른 언어도 지원 예정
- 주요 기능
- 구조화된 출력으로 에이전트 응답을 파싱
- 세션 재개를 위한 컨텍스트 관리 내장
-
GitHub Action 통합을 통해 CI/CD 파이프라인 자동화 지원
- 쉘 환경에서는 codex exec 명령으로 직접 실행 가능
-
Instacart는 SDK를 자사 플랫폼 Olive와 통합해 엔드투엔드 자동 개발 환경을 구현, 기술 부채 제거와 코드 품질 향상 효과를 확인했음
-
관리자 기능 강화
-
환경 제어 및 삭제 기능을 통해 민감 데이터 관리 및 불필요한 환경 정리 가능
- CLI·IDE·웹 전반의 Codex 사용량 및 코드 리뷰 품질을 분석하는 대시보드 제공
- 관리자는 Codex의 로컬 사용 정책과 설정을 중앙 제어할 수 있어, 대규모 조직 운영에 적합함
-
Cisco는 Codex를 활용해 복잡한 PR 리뷰 시간을 최대 50% 단축, 엔지니어가 더 전략적인 작업에 집중할 수 있도록 지원
-
Slack 통합과 Codex SDK는 ChatGPT Plus, Pro, Business, Edu, Enterprise 플랜에서 즉시 사용 가능
-
10월 20일부터 Codex Cloud 작업량이 사용량 계산에 포함될 예정
- Plus 플랜 : 5시간당 약 30~150회 로컬 메시지 또는 5~40건의 클라우드 작업 수행 가능
- Pro 플랜 : 5시간당 약 300~1,500회 로컬 메시지 또는 50~400건의 클라우드 작업 수행 가능
- 한도 초과 시 Codex 사용이 일시 중지되며, 사용량이 초기화되면 다시 이용 가능
-
Code Review는 한시적으로 사용량에 포함되지 않음
-
GitHub에서 @codex review 태그를 사용하거나 자동 리뷰 기능을 활성화한 경우만 Code Review 사용량으로 집계됨
Sora를 활용한 동영상 생성 API 공개
- Sora는 OpenAI의 차세대 생성형 미디어 모델로, 오디오가 포함된 사실적이고 역동적인 동영상을 생성함
-
멀티모달 확산(multi-modal diffusion) 연구를 기반으로 개발되었으며, 3D 공간 인식과 카메라 이동, 물리적 움직임의 일관성을 학습함
- 개발자는 이를 통해 텍스트→비디오 또는 이미지→비디오 형태로 콘텐츠를 자동 생성할 수 있음
- 새로 공개된 Video API는 다음 5가지 주요 기능 엔드포인트로 구성됨
-
Create video: 텍스트 프롬프트 또는 기존 영상 기반으로 새 렌더링 작업 생성
-
Get video status: 렌더링 진행 상태 확인
-
Download video: 완료된 MP4 영상 다운로드
-
List videos: 생성된 영상 목록 관리 및 페이징 지원
-
Delete videos: 저장 공간에서 특정 영상 삭제
- API를 통해 영상 생성·관리·확장·리믹스 작업을 프로그래밍 방식으로 자동화 가능함
-
모델 종류
-
Sora 2 – 빠른 반복 및 실험용
-
속도와 유연성 중심의 모델로, 콘셉트 테스트나 러프 컷 제작에 적합함
- 짧은 시간에 결과를 얻을 수 있어 소셜미디어 콘텐츠나 프로토타입 영상 제작에 활용 가능함
- 완벽한 품질보다 아이디어 탐색과 시각적 방향성 확인에 중점을 둠
-
Sora 2 Pro – 고품질 제작용
-
시네마틱 수준의 완성도를 목표로 설계된 모델
- 렌더링 속도는 느리고 비용도 더 높지만, 영상의 안정성과 디테일이 크게 향상됨
- 고해상도 마케팅 영상, 브랜드 자산, 영화 스타일의 장면 제작 등에 적합함
GPT-5 Pro 를 API로 이용 가능
-
GPT-5 Pro는 OpenAI의 최고 수준 추론(reasoning) 모델로, 더 정교하고 정확한 응답을 생성하기 위해 더 많은 연산량을 사용
- 일반 GPT-5보다 느리지만, 복잡한 문제 해결 능력과 일관된 품질을 제공
-
Responses API 전용 모델로, 멀티턴 대화형 요청 처리 및 고급 API 기능을 지원하며, reasoning.effort: high 모드만 지원
- 코드 인터프리터(Code Interpreter) 및 실시간 스트리밍은 지원하지 않음
- 복잡한 요청은 수 분 단위의 처리 시간이 필요할 수 있으며, 장기 실행 시 Background Mode 사용 권장
-
컨텍스트 윈도우 400,000토큰, 최대 출력 272,000토큰, Knowledge Cutoff 2024년 9월 30일
- 과금 (Pricing): 100만 토큰당
- 입력(Input) : $15.00 (이미지 입력 포함)
- 출력(Output) : $120.00
저렴한 음성 서비스를 위한 GPT Realtime Mini 모델
-
GPT-Realtime-Mini는 실시간 대화 모델의 저비용·고속 버전으로, 텍스트·이미지·오디오 입력을 지원하고 텍스트 및 오디오 출력을 생성
- WebRTC, WebSocket, SIP 연결을 통해 실시간 음성·텍스트 반응이 가능하며, gpt-realtime 대비 6배 이상 저렴한 비용으로 운영 가능
-
컨텍스트 윈도우 32,000토큰, 최대 출력 4,096토큰, Knowledge Cutoff 2023년 10월 1일
- 과금 (Pricing): 100만 토큰당
- 텍스트 토큰
- 입력(Input) : $0.60
- 캐시된 입력(Cached input) : $0.06
- 출력(Output) : $2.40
- 기존 모델과 비교
- 입력 : gpt-realtime: $4 , GPT-5: $1.25, gpt-realtime-mini: $0.60 (가장 저렴)
- 출력 : gpt-realtime: $16 , GPT-5: $10, gpt-realtime-mini: $2.4 (가장 저렴)
- 오디오 토큰
- 입력(Input) : $10
- 캐시된 입력(Cached input): $0.3
- 출력 : $20
- 이미지 토큰
GPT Image 1 Mini 모델
-
GPT-Image-1-Mini는 GPT Image 1의 저비용 버전으로, 텍스트와 이미지를 입력받아 이미지 출력을 생성하는 멀티모달 모델
- 고품질보다는 효율성과 저렴한 비용에 초점을 맞춰, 대량의 이미지 생성이나 시각적 프로토타이핑에 적합
-
텍스트 및 이미지 입력 가능, 출력은 이미지 전용
-
속도는 느리지만, 성능 대비 비용 효율성이 높음
- 과금 (Pricing): 100만 토큰당
- 텍스트 토큰
- 입력(Input): $2.00
- 캐시된 입력(Cached input): $0.20
- 출력(Output): $8.00
- 기존 모델과 비교
- 입력: GPT Image 1: $5.00, GPT Image 1 Mini: $2.00 (약 60% 절감)
- 출력: GPT Image 1: $20.00, GPT Image 1 Mini: $8.00 (약 60% 절감)
- 이미지 토큰
- 입력(Input): $2.50
- 캐시된 입력(Cached input): $0.25
- 출력(Output): $8.00
- 이미지 생성 (1장 기준)
-
Low 품질
- 1024×1024: $0.005
- 1024×1536: $0.006
- 1536×1024: $0.006
-
Medium 품질
- 1024×1024: $0.011
- 1024×1536: $0.015
- 1536×1024: $0.015