헬로티 서재창 기자 | 그래프코어가 최신 MLPerf 1.1 벤치마크 테스트에서 자사의 IPU(Intelligence Processing Unit) 시스템이 기록적인 성능을 달성했다고 밝혔다. 이를 통해 그 규모가 점차 확대되면서 효율성과 성능, 소프트웨어 성숙도는 물론 사용 편의성이 꾸준히 향상되는 그래프코어 IPU 시스템의 경쟁력을 다시 한 번 입증했다. 9일인 오늘 온라인 기자간담회를 연 그래프코어는 최신 IPU-POD 시스템과 MLPerf 벤치마크 테스트 결과를 발표하고, 국내 AI 혁신 가속화를 위한 그래프코어의 계획과 국내 사업 성과 및 방향성 등에 대해 소개했다. 그래프코어 IPU 시스템은 지속적인 소프트웨어 최적화를 통해 향상된 성능을 제공하고 있다. 특히, 이번 MLPerf 벤치마크에서 그래프코어 IPU-POD16은 컴퓨터 비전 모델 ResNet-50 훈련에 있어 엔비디아의 DGX A100을 능가하는 성능을 보였다. ResNet-50을 훈련하는데 엔비디아 DGX A100은 29.1분이 걸린데 반해, 그래프코어의 IPU-POD16은 28.3분을 기록했다. 이는 소프트웨어만으로 첫 MLPerf 테스트 결과 대비 24%의 성능 향상을 이룬 것으로,
헬로티 서재창 기자 | 인텔은 식스 파이브 서밋에서 인프라 처리 장치(IPU)의 비전을 발표했다고 15일 밝혔다. IPU는 클라우드 및 통신 서비스 제공업체가 CPU의 오버헤드를 줄이고 성능을 높이도록 설계된 프로그램 가능한 네트워크 장치다. 고객은 IPU로 데이터의 처리 및 저장 간 균형을 맞추는 안전하고 프로그래밍 가능한 안정적인 솔루션을 활용하며, 리소스를 보다 효율적으로 활용한다. 귀도 아펜젤러(Guido Appenzeller) 인텔 데이터 플랫폼 그룹 최고기술책임자(CTO)는 “IPU는 새로운 기술 범주에 속하는 인텔의 클라우드 전략의 중요한 한 축이다. IPU는 인텔 스마트NIC 기능에서 발전된 것으로, 오늘날 데이터센터에 존재하는 복잡성과 비효율성을 해결하기 위한 기술”이라고 말했다. 귀도 아펜젤러 CTO는 “인텔은 고객 및 파트너와 함께 솔루션을 개발하고 혁신하는데 전념하고 있으며, IPU는 이러한 협업을 잘 보여주는 예시”라고 말했다. IPU는 프로그래밍이 가능한 네트워크 장치로, 데이터센터에서 시스템 수준의 인프라 리소스를 안전하게 가속하면서 지능적으로 관리하도록 지원한다. 클라우드 운영자는 IPU로 높은 성능과 예측 가능성을 유지하면서,
[헬로티] 인공지능 반도체 기업 그래프코어가 IT 기업 NHN과 기술적 협력을 위한 업무협약(MOU)을 7일 체결했다. 이번 협약은 차세대 AI 시스템에 특화된 그래프코어의 IPU-POD 시스템을 NHN의 AI 전략에 도입, 빠르게 성장하고 있는 국내 AI 생태계에 기여할 것으로 기대된다. 양사는 이번 업무협약을 통해 ▲오픈스택 등 주요 개발 기술 요소에 대한 공동 개발 협력 ▲NHN Cloud(클라우드)의 공공(Public) 시스템 공동 개발 협력 ▲공인된 AI 및 머신러닝 기관에 개발된 AI 클라우드의 연산 능력을 등재하기 위한 상호 협력 ▲다양한 AI 및 머신러닝 개발 생태계를 지원할 수 있는 마케팅 활동 상호 추진 등, 기술적 협력에 초점을 맞추며 시너지 효과를 극대화한다는 계획이다. 강민우 그래프코어 한국지사장은 “이번 협약은 국내 클라우드 업계를 선도하고 있는 NHN이 그래프코어 IPU의 장래성을 높이 평가했다는 점에서 유의미하다”며 “그래프코어는 앞으로도 AI 반도체 업계에서 독보적인 성능을 자랑하는 IPU를 앞세워 유수의 국내 공공 및 민간 기업들의 사업 수요를 충족하는 기술력을 선보일 예정”이라고 소감을 밝혔다. NHN 클라우드사업그룹 김동훈