구글 클라우드, ‘구글 클라우드 데이 서울’서 AI 사례 공개

- AI 워크로드 처리, 데이터 저장 신규 데이터 레지던시 서비스 출시
- AI 역량 강화 위해 교육 리소스 제공해 국내 기업 혁신 가속화 지원
구글 클라우드가 인공지능(AI) 비전을 선보였다.
구글 클라우드는 8일 서울 강남구 코엑스 컨벤션 센터서 ‘구글 클라우드 데이 서울(Google Cloud Day Seoul)’에서 구글 클라우드 AI 인프라, 맞춤형 칩, 생성형 AI 모델, 완전 통합형 개발 플랫폼을 살펴보고, 국내 주요 산업의 생성형 AI 활용 사례를 공유했다.
유영준 뤼튼테크놀로지스 최고운영책임자(COO)는 최근 AI 검색, 생산성 도구, 개인화된 AI 기능을 강화해 출시한 ‘뤼튼 3.0’ 서비스를 소개하며, “새로운 서비스에 쓰일 거대언어모델(LLM)은 좋은 성능과 합리적인 가격, 높은 안정성 등 여러 기준을 만족해야 했다. 제미나이 2.5(Gemini 2.5) 모델군은 뤼튼 자체 테스트 결과 그 기준을 충족했고, 현재 다양한 여러 LLM들과 함께 서비스 내 적재적소서 활용되고 있다”라고 밝혔다.
이외에도 놀유니버스, LG유플러스, NC AI, 카카오모빌리티, 매스프레소 등이 구글 클라우드 데이 서울의 AI 체험 공간 ‘제미나이 플레이그라운드(Gemini Playground)’서 부스를 통해 도입된 생성형 AI 협업 사례를 소개했다.
지기성 구글 클라우드 코리아 사장은 “올해도 AI는 끊임없이 진화하며 기업이 비즈니스를 운영하고, 경쟁하며, 혁신하는 방식을 근본적으로 변화시킬 것”이라고 설명하며, “구글 클라우드는 기업에 모델, 하드웨어와 함께 개방적이며 상호운용성을 갖춘 소프트웨어 도구 및 플랫폼을 제공해 멀티 에이전트 시스템 구축을 지원한다”고 전했다.
구글 클라우드 서울 리전 5주년
구글 클라우드는 2020년 구글 클라우드 서울 리전(Seoul region; 이하 서울 리전)을 설립 이후 지난 5년간 한국서 컴퓨팅 역량을 확장해 왔다. 서울 리전은 국내에 위치한 상호 연결된 대용량 인프라로 구성돼 있으며, 서버, 실리콘 칩, 저장 장치, 네트워크 장비 등을 갖추고 있다. 서울 리전은 구글 클라우드의 고성능 서비스를 제공하는 물리적 인프라 역할을 수행하며, 기업의 시스템과 애플리케이션의 가용성, 보안 및 접근성을 보장하는 중추 역할을 담당한다.
서울 리전은 전 세계적 규모의 구글 프라이빗 네트워크와도 연결돼 있다. 네트워크는 200개 이상의 국가 및 지역에 걸쳐 200만 마일 이상의 광케이블(지상 및 해저 케이블)로 구성되어, 글로벌 인프라를 제공한다.
추론 시대, 최적화된 AI 하드웨어 위한 혁신
구글 클라우드는 새로운 하드웨어를 선보이고 있다. TPU는 10년 넘게 구글의 AI 학습 및 워크로드 처리를 지원해 왔다.
구글 클라우드는 지난 4월 넥스트(Google Cloud Next 2025) 행사서 구글 7세대 텐서처리장치(TPU)이자, 대규모 AI 추론을 위해 특별히 설계된 TPU 가속기 아이언우드(Ironwood)를 공개했다. 아이언우드는 구글 TPU 중 에너지 효율적인 모델로, 정식 버전으로 출시될 예정이다.
지기성 구글 클라우드 코리아 사장은 “아이언우드 등장은 AI 발전과 이를 뒷받침하는 인프라에 있어 중요한 변화를 의미한다. 해석과 인사이트를 선제적으로 생성하는 모델로 전환되는 ‘추론의 시대’가 온 것”이라고 설명하며, “제미나이 2.5 모델을 비롯해 노벨상을 수상한 알파폴드(AlphaFold) 모델들이 TPU에서 실행되고 있다. 아이언우드를 통한 AI 혁신이 기대된다”고 답했다.
구글 클라우드 서울 리전, 신규 데이터 레지던시 서비스 확장
구글 클라우드는 버텍스 AI(Vertex AI)를 통해 구글 딥마인드의 최신 AI 모델 연구 혁신을 국내 기업에 제공하고 있다. 특히 제미나이 2.5(Gemini 2.5) 모델군은 각 모델별로 사고 예산(thinking budget)을 제어하고 개발자가 응답 생성 전 모델의 사고 시간과 처리량을 선택할 수 있어, 비용과 속도 간 파레토 효율을 달성한다.
오늘날 많은 기업이 데이터 저장 이외에도 머신러닝 처리 위치까지 제어할 수 있는 권한 요구 또한 높아지고 있다. 구글 클라우드는 이날 행사에서 기존의 데이터 저장 위치 제어에 더해, 머신러닝 처리 작업까지 국내에서 수행할 수 있는 새로운 옵션을 발표했다. 특히 이 옵션은 머신러닝 처리 위치에 대한 규제준수 요건을 가진 기업이 구글의 최신 LLM인 제미나이 2.5 플래시를 국내에서 활용할 수 있도록 지원한다.
기업에 제공하는 데이터 레지던시 옵션은 다음과 같다.
- 저장 상태인 데이터(Data residency at-rest): 고객 데이터가 고객이 지정한 특정 지리적 위치에만 저장되도록 보장한다.
- 머신러닝 처리 작업 중인 데이터(Data residency during ML processing): 구글 클라우드는 고객 데이터 머신러닝 처리 작업이 데이터가 저장된 곳과 동일한 특정 리전 또는 멀티 리전 내에서만 이루어지도록 보장한다. 이는 추론 및 결과물 생성 이전에 발생하는 모든 머신러닝 처리를 포함한다.
국내 기업을 위한 클라우드 선택권 및 보안 강화
구글 클라우드 데이터 바운더리(Google Cloud Data Boundary)는 고객이 신뢰할 수 있는 데이터 경계를 설정하고, 데이터가 저장되고 처리되는 위치를 제어할 수 있는 기능을 제공한다. 또한 고객은 시장이 요구하는 데이터 접근 및 제어 사항을 충족할 수 있도록 구글 인프라 밖에서 암호화 키를 저장, 관리할 수 있다.
구글 분산형 클라우드 에어갭(Google Distributed Cloud Air-gapped)은 엄격한 데이터 보안 및 레지던시 요건을 지닌 규제 산업 고객들을 위한 맞춤형 솔루션으로, 구글 클라우드의 특정 서비스를 고객의 데이터센터 안에서 운영할 수 있도록 지원한다. 구글 분산형 클라우드 에어갭은 고객이 선택한 환경 안에서만 작동한다. 구글 클라우드 리전이나 공용 인터넷에 연결할 필요가 없다. 이를 통해 고객은 데이터, 운영, 소프트웨어를 전적으로 한국 안에서 통제할 수 있다.
Related Materials
- [IT& Future Strategy 2024-3] 글로벌 정부·민간 분야 AI 투자 동향 - 한국지능정보사회진흥원, 2024년
- 미중 AI 패권 경쟁: 미국 중국 AI 경쟁력 분석, 2024년
