테크
확장성, 데이터, 일반화, 하드웨어 효율성이 오늘날의 AI 시스템을 어떻게 주도하는지 알아보고, AI의 미래가 왜 온디바이스 성능으로 이동하고 있는지 살펴보세요.

독서 시간
0분
목차
확장
저자:

Călin Ciobanu
공동 창립자 겸 최고기술책임자
대학에서 신경망을 처음 접했을 때, 그것이 프로그래밍에 대한 나의 이해 방식을 근본적으로 바꿀 거라고는 생각하지 못했다. 나는 전통적인 방식으로 훈련받았다: 논리, 제어 흐름, 규칙, 예측 가능한 출력. 컴퓨터가 따라야 할 정확한 단계를 작성하는 것이다. 그 이상도, 그 이하도 아니다.
AI가 그 사고방식을 깨뜨렸다.
갑자기 과제는 로직을 하드코딩하는 것이 아니라, 시스템이 스스로 행동을 학습할 수 있도록 충분한 예시를 보여주는 것이었습니다. 마치 프로그래밍의 새로운 패러다임을 발견한 듯한 느낌이었습니다. 그리고 이는 제가 이미 깊이 관심을 가지고 있던 두 분야와 완벽하게 부합했습니다:
• 심리학
• 저수준 임베디드 하드웨어
AI는 정확히 그 교차점에 위치했다.
생물체의 복잡성(뉴런의 수와 무엇보다도 그들 사이의 연결)이 지능과 능력에 비례한다는 점을 관찰함으로써, 다음과 같은 결론이 도출된다:
패턴은 직관적이었다:
더 큰 모델 → 더 많은 매개변수 → 더 높은 수준의 자기조직화 현상 발생 가능성.
오늘날의 대규모 언어 모델에서 우리는 이를 명확히 목격하고 있습니다. 모델의 규모를 확장하고 충분한 컴퓨팅 자원을 투입해 실행하면, 명시적으로 훈련받지 않은 능력들—새로운 추론 방식, 새로운 기술, 때로는 새로운 문제 해결 전략까지—을 학습하기 시작합니다.
이 트렌드에 대해 저는 2011년 학사 논문에서 이미 다루었습니다. 인공지능이 주류 주제가 되기 훨씬 전이었죠. 당시에는 추측에 불과해 보였습니다. 오늘날에는 명백한 사실이 되었습니다.
이러한 가속화 덕분에 기술 기업들은 거대한 데이터 센터를 건설하고, 전례 없이 칩을 최적화하며, 모델 규모를 기존 한계를 넘어 확장하고 있습니다. 우리는 확장 가설이 실시간으로 펼쳐지는 모습을 목격하고 있습니다.
대규모 모델을 훈련시키는 것은 한 가지 문제다. 배포하는 것은 또 다른 문제다.
가장 진보된 AI 기업들조차도 생산 환경에서 원래의 "전체 규모" 모델을 실행하지 않습니다. 단순히 비용이 너무 많이 들기 때문입니다. 대신 실행하는 것은 다음과 같습니다:
대형 모델 → 더 작고 저렴하며 빠른 모델로 압축 → 사용자에게 배포됨.
이는 OpenAI, Google, Groq, DeepSeek 등 모든 기업에 해당됩니다.
GPT-5가 완벽한 사례다. 이 모델은 GPT-4보다 우수할 뿐만 아니라 운영 비용도 현저히 저렴하다. 이러한 발전의 절반은 압축 및 효율성 분야의 획기적인 진보에서 비롯되었다.
옴니쉘프에서는 이보다 훨씬 어려운 과제에 직면했습니다: 인터넷 연결이 전혀 없는 극도로 오래된 기기에서 어떻게 실시간으로 AI를 구동시킬 것인가?
수년간의 연구(유럽 연합 지원 프로젝트 포함)를 통해 우리는 대규모 모델의 핵심 동작을 유지하면서도 모든 안드로이드 기기에서 실행될 수 있을 만큼 충분히 작게 만드는 새로운 압축 아키텍처를 개발했습니다.
지금은 더 자세한 내용을 설명하지 않겠지만, 이 작업이 바로 우리의 소매 실행 기술을 가능하게 하는 핵심입니다.
업계 전반에서 기업들이 AI 프로젝트의 성공 요인을 제대로 이해하지 못한 채 'AI 기능 추가'에만 급급한 모습을 목격합니다. 문제는 거의 항상 동일하며, 배포 훨씬 이전에 드러납니다.
신경망은 입력된 데이터만큼만 우수합니다.
대부분의 팀은 다음 작업의 어려움을 과소평가합니다:
• 고품질 데이터 수집
• 데이터의 일관된 라벨링
• 데이터 정리
• 모델이 실제로 학습할 수 있는 형식으로 데이터 준비
훌륭한 데이터는 평범한 모델도 훌륭해 보이게 한다. 열악한 데이터는 세계 최고 수준의 모델조차 실패하게 만든다.
훈련된 정확한 조건에서만 작동하는 모델은 유용하지 않습니다. 일반화하는 모델(즉, 새로운 환경이나 본 적 없는 환경에서도 잘 수행할 수 있는 모델)이 바로 여러분이 원하는 모델입니다.
일반화는 하나의 데이터셋으로 훈련된 모델이 다음을 가능하게 합니다:
• 다양한 조명 조건 처리
• 다양한 물리적 레이아웃 처리
• 이전에 본 적 없는 새로운 항목을 올바르게 처리
이것이 바로 대규모 언어 모델(LLM)의 창의성과 추론 능력에 대한 논쟁이 시작되는 지점이다. 일부 연구자들은 이를 '통계적 데이터베이스'로 간주하는 반면, 다른 이들은 진정한 창의성의 불꽃을 발견한다. 진실은 아마도 그 중간 어딘가에 있을 것이다.
창의성을 다음과 같이 분해할 수 있습니다:
두 형태가 공통적으로 필요로 하는 것은 시스템이 사고하고, 아이디어를 구상하고, 시뮬레이션하고, 테스트하고, 개선할 수 있도록 하는 진보적이고 견고한 세계 모델이다. 특정 분야를 위한 세계 모델은 존재하지만, 보편적인 일반 모델은 아직 멀었다.
현재의 대규모 언어 모델(LLM)은 어느 정도의 일반적 혁신성을 보여줍니다. 이들은 분야 간 지식과 패턴 이해로부터 이점을 얻습니다. 비유와 도메인 전이(현재 연구 동향) 분야에서는 더 많은 연구가 필요합니다.
이것은 가장 기술적이지 않지만 종종 가장 어려운 부분이다.
인공지능 시스템은 확률적입니다. 99%의 확률로 옳을 수 있으며 인간보다 훨씬 우수할 수 있지만 여전히 정확성이 보장되지는 않습니다.
시스템이 실수를 저질렀을 때, 책임은 누구에게 있는가?
이 도전 과제는 다음과 같은 시나리오에서 나타납니다:
• 대출 승인
• 의료 분석
• 자율 주행
• 안전 점검
• 법적 결정
자율주행은 이를 명확히 보여준다: 자율주행 시스템은 인간보다 빠르게 반응하며 통계적으로 사고 발생률이 낮다. 그러나 단 한 번의 오류로 인해 피해자가 발생하면 책임 소재의 공백이 즉각 드러난다.
이러한 철학적·법적 불확실성은 어떤 모델의 한계보다도 배포를 더 지연시킨다.
속도는 느려지지 않고 가속화되고 있다. 압축 기술이 개선되고 하드웨어가 더욱 전문화됨에 따라, 인공지능은 점점 더 빠르게 발전할 것이다:
클라우드에서 → 에지로 → 결국 완전히 온디바이스로.
이 기능은 다음을 제공합니다:
• 실시간 처리
• 완벽한 프라이버시
• 오프라인 기능
• 획기적으로 낮은 비용
실제 제품을 만드는 기업들에게는, "가장 큰" 모델을 보유하는 것보다 이것이 훨씬 더 중요합니다.
승자는 가장 거대한 신경망을 구축하는 자가 아닐 것이다. 승자는 대규모로 인공지능을 효율적이고, 신뢰할 수 있으며, 지속 가능하게 배포하는 자일 것이다.
매주 AI는 또 다른 기대를 깨뜨린다. 하지만 과대포장 속에서도 한 가지는 변함없이 남아 있다: 기본은 여전히 중요하다.
데이터. 일반화. 책임성. 효율적 배치.
이것들은 AI 제품의 성공 여부를 결정하는 핵심 요소들이다.
옴니쉘프에서는 이러한 원칙들이 우리가 구축하는 방식, 최적화하는 대상, 그리고 제한된 하드웨어에서 가능한 한계를 어떻게 확장해 나가는지를 결정합니다.
인사이트 및 업데이트
더 깊은 통찰력, 제품 업데이트, 그리고 소매 기술의 미래를 형성하는 업계 동향으로 한 발 앞서 나가세요. 귀사의 비즈니스에 중요한 더 많은 이야기를 발견하세요.