AI기술 발전보다 앞서 나가는 인간의 기대속도 안녕하세요, 구독자님.
따뜻한 봄 기운을 느끼게 하는 한 주였습니다.
이번 한주도 보람차게 보내고 계셨나요?
금주에는 기술 부문에서 참 많은 소식들이 있었던 것 같습니다. 우선 GTC 2024로 한동안 사람들 입에 오르내릴 많은 기술들이 등장했죠. 스페이스엑스는 세계에서 가장 큰 스타십(Starship)이라는 우주선 발사 시험에 성공했고 뉴럴링크의 두뇌칩을 이식한 전신마비 환자가 생각만으로 체스게임을 진행하며 달라진 삶을 얘기하는 인터뷰도 있었습니다. 다양한 해외기업들에서 AI로 인해 촉발된 반도체 전쟁에 한국 기업들의 참여를 이끌어내기 위한 움직임들과 올해 중반쯤에 훨씬 성능이 좋아진 GPT-5가 출시될거란 발표, 경쟁제품인 Claude 3 opus의 남다른 자각능력에 대한 논란 등등... 따라잡기 어려울만큼 터져 나오는 소식이지만 어느새 슬슬 무덤덤해지는 정도까지 왔습니다.
놀라운 AI의 발전속도 때문에 사람들은 열광하고 있죠. 실제 현실에서 체감할 수 있는 서비스들이 속속 나오고 있고 업무 혁신도 해내고 있으니 말입니다. AI 기술로 일어나고 있는 산업에서의 ' 혁신과 이로 인한 효과', 그리고, 발전의 속도가 가중되는 AI기술의 특징 때문에 그 기대가 과거의 닷컴버블과는 질적으로 다르다는 의견과 함께 너무 과장된 기술적인 기대와 조만간 맞닥뜨리게 될지 모를 한계 등을 걱정하며 언제든 꺼질 수 있는 거품이라는 의견이 서로 팽팽하게 대립하고 있는 것처럼 보입니다. 부정적인 내용만을 언급한 것 같진 않으나 가트너에서도, 현재가 기대감의 절정 단계이며 내년에는 이것이 급격하게 떨어질 수 있다고 예측했다는 기사도 있었습니다. ( 기사)
내용을 보면 가트너 Hype Cycle의 3번째 단계인 '환멸의 골짜기(Trough of Disillusionment')에 도달할 수 있다는 경고인데, 실제 2023년 신기술에 대한 Hype Cycle 그래프를 보면 생성형 AI등이 완전 꼭대기에 와 있는 것을 볼 수 있습니다. 하지만 너무 부정적으로 볼 필요는 없다고 여겨지는 것이, 절정인 2단계에 있는 것 말고 1단계 Innovation Trigger 단계에도 다수의 AI 관련 기술들이 포진하고 있어 그것들로 인해 추가적인 혁신이 지속적으로 일어날 수 있을 것으로 생각되기 때문입니다. |
|
|
사진: Gartner Hype Cycle for Emerging Technologies (출처) |
|
|
실제 현실화되는 기술의 속도가 아무리 빠르다고 해도, 역시 사람들의 기대 속도에는 미치지 못하는 것은 어쩔 수 없는 현실입니다. 자율주행만 하더라도 마치 내년이면 나오지 않겠냐는 기대감이 벌써 십수년째 이어져 오고 있는 것 같고, 수준높은 LLM이 발표될 때마다 혹시 다음 번에 나오는 녀석은 AGI 수준이 되지 않을까 하는 기대를 하곤 하죠. 이렇듯 사람들의 머릿속에서는 이미 미래가 펼쳐져 있습니다. 어쩌면 실제 그런 기술을 개발하는 사람들이 좀 더 현실적일지도 모르죠. 풀어야 하는 문제의 한계를 늘 체감할테니까요. 하지만 이런 노력으로 불가능해 보였던 문제를 하나씩 풀어나가는 과정에서 새로운 기술이 나오고 미래의 그림도 바뀌게 됩니다.
빌게이츠는 '생각의 속도'이라는 책에서 2000년대는 속도의 시대가 될 것이라고 말했습니다. 그 표현의 형태를 빌어 비슷하게 얘기해 보면 2010년대는 '가속도의 시대', 2020년대는 '가속²의 시대' (제곱표시가 ^^;) 가 아닐까 생각해 봅니다. 기술이 더 발전해 조만간 AGI와 양자컴퓨팅이 등장하면 더 이상 속도의 얘기가 무의미해지는 시간이 올 수도 있겠죠. 그때가 되면 '속도'라는 단어의 정의를 달리해야할지도 모르겠습니다.
조만간 꽃가루 펄펄 날리는 환절기가 됩니다.
건강 유의하시고 행복한 주말 맞으시기 바랍니다. |
|
|
Nvidia, GTC 2024 행사 개최
Nvidia의 최대 인공지능 컨퍼런스인 GTC 2024가 현재 미국 캘리포니아주 새너제이에서 진행되고 있습니다. 오픈행사에는 11,000명 가량이 참석할 정도로 인기가 높았다고 하네요. 그 분위기를 직접 만끽할 수는 없지만 온라인 생중계도 볼만 했습니다. 이 자리에서 CEO인 젠슨 황은 자사의 신기술(블랙웰 플랫폼, NIM 등)과 더불어 산업 전분야에 AI가 도입되어 불러오게 될 혁신의 사례들을 보여주었습니다. 소개된 블랙웰칩은 기존 호퍼칩 대비 2.5배 이상의 성능을 제공한답니다. 게다가 GB200 그레이스 블랙웰 슈퍼칩이라고 소개된 것으론 B200 텐서코어 GPU 2개와 그레이스 CPU 하나를 연결해서 만들어지고 이것들도 NVLink를 이용해 훨씬 더 큰 규모로 확장 가능하다고 합니다. ( 영상) |
|
|
사진: GB200 Grace Blackwell Superchip (출처) |
|
|
xAI, Grok을 오픈소스로 드디어 공개
지난 주 일론 머스크가 공언한 바와 같이 X의 LLM 모델인 Grok ('Grok-1')이 Apache 2.0 라이선스를 따르는 오픈소스로 깃헙에 공개되었습니다. 매개변수 3,140억개로 MoE(Mixture of Exert) 모델인 Grok은 사실 X(트위터) 프리미엄을 사용하는 사람들이 아니면 접할 수 없었기 때문에 짧은 기사 정도로만 알려진 상태였습니다. GPT-4와는 달리 X의 최신 데이터를 언제든 활용할 수 있다는 것이 큰 장점이었죠.
이번에 공개된 것은 2023년 10월에 종료된 사전학습 단계의 베이스 모델 (특정 목적에 맞춰 미세조정되지 않음)의 weight와 아키텍처입니다. 매개변수가 1조개 이상이라고 추정되는 GPT-4보다는 작지만 LLama2 등에 비하면 상당히 큰 모델이라고 할 수 있는데, 그러다보니 사용하려면 아주 빵빵한 GPU를 갖춘 기계가 필요할 것 같습니다. weight가 300GB가 넘는 것 같으 저장공간도 충분해야 하겠네요. ( 사이트) |
|
|
OpenAI, 글로벌 기업 협업 프로그램 참여사로 국내 AI스타트업 10곳 선정
OpenAI CEO인 샘 앨트만이 얼마 전 한국을 방문하고 갔었습니다. 대부분의 시간을 반도체 기업과의 미팅에 썼는데 귀국 후 'K-Startup & OpenAI Matching Day in US'라는 행사를 개최하고 여기서 글로벌 기업 협업 프로그램에 참여할 10개의 한국 스타트업을 최종 선정했습니다. 이 행사는 작년에 있었던 중소벤처기업부 초청 간담회에서 한국의 유망 스타트업을 공동 육성하기로 합의했던 것의 연장선에서 진행된 것입니다. 1차로 한국에서 220개 신청업체 가운데 14개 업체를 1차 선발했고 다시 미국 현지에서 최종 10개를 선정한 것입니다. 그만큼 많은 비교 평가를 거친 곳들이니 역량 자체는 빵빵(^^)하리라 생각됩니다. 이 기업들은 중소벤처기업부로부터 사업화자금을 지원받고 OpenAI의 서비스 활용을 위한 지원을 받을 수 있게 됩니다. ( 기사, 정부브리핑) |
|
|
Figure AI, OpenAI ChatGPT 활용 휴머노이드 로봇 데모 공개
휴머노이드 로봇을 개발하는 Figure AI가 OpenAI와 협업을 선언한지 몇 주만에 사람과 대화하면서 주변 환경이나 사물을 감지해서 이를 근거로 판단을 하고 행동에 옮기는 휴머노이드 로봇의 데모 영상을 공개했습니다.
기능 측면에서는 편집 영상이 아니라는 것과 단 몇주만에 공개형(예정?) 로봇에 멀티모달 모델이 적용되었을 때 이 정도가 될 수 있다는 가능성을 보여준 것이라 놀라웠습니다. 물건을 집고 이를 사람에게 전달하고 하는 과정에서 보여준 손과 팔 움직임은 정교하고 흡사 지난 번 테슬라봇의 그것과 유사했습니다.
Figure AI의 로봇이 공개 판매가 된다면 활용 가능성은 상당할 것 같습니다. 다만, 몇 가지 제약사항들이 보였는데요... 데모 상의 로봇이 아직은 온디바이스로 동작하는 녀석이 아니라 OpenAI의 API를 호출해서 결과를 받아오는데까지는 수초가 걸릴 수도 있어 실생활에서 그런 부분이 감안된 형태로 활용되어야 한다는 것과 상체 움직임만을 포함한 데모였다는 것입니다. 공개된 다른 영상들을 보면 아직도 걷는 동작은 여전히 개선이 많이 필요해 보였는데... 생각해 보면 그런 것은 조만간 해결되지 않을까 싶긴 합니다. 최대 관건은 저렴한 비용에 양산이 가능한가 하는 것으로 보입니다. 그래야 산업적으로 의미가 있을테니까요. 그렇지 않다면 보스턴다이나믹스의 로봇들처럼 멋지지만 실용적이지 않은 수준으로 머물 수도 있기 때문이죠. ( 링크) |
|
|
사진: Figure AI의 로봇 시연 데모 (출처) |
|
|
예전에 뉴럴링크에서 침습적 방식을 이용해 원숭이의 뇌에 전극을 삽입하고 여기서 수집되는 신호를 분석해서 컴퓨터 게임을 시키는 것을 시연한 적이 있었습니다. 당시에는 마우스를 제어하는 수준이었지만 기술방식을 보면 유사한 방식으로 신호의 패턴 등을 분석해서 사람의 다양한 생각을 분별하고 이를 이용해 의사소통을 할 수 있도록 발전될 것이란 기대를 불러 일으켰습니다. 앞서 서두에 얘기한 것처럼 이 기술은 현재는 사람에게 적용되어 생각만으로 체스 게임을 할 수 있는 수준까지 와 있습니다. 싱크론이라는 미국 기업도 방식은 약간 다르나 유사 기술을 발표했구요...
일반적으로 뇌활동을 분석해서 시각적 정보로 재구성하는 기술은 아직은 실용성에 한계가 많습니다. 사람마다 다 다를수 있기 때문에 독립적으로 훈련이 필요하고 이 때문에 개별적으로 fMRI 데이터를 수십 시간씩 수집해야 하기 때문이죠. 이번에 발표된 MindEye2는 1시간 분량의 fMRI 데이터로 사람의 시각 인식 내용을 이미지로 재현하는 모델입니다. 7명의 대상자에 대해 데이터를 수집해 훈련을 진행한 후 새로운 대상자들은 적은 양의 데이터로 미세 조정해서 일반화 성능이 개선하고 최고 수준의 재구현 성능을 달성했다고 합니다. 이런 연구들을 보면 현실세계에서 접하는 정보를 처리하는 방식이 사람과 인공지능이 점점 닮아간다는 느낌이 듭니다. 처음에는 모사를 했지만 나중에는 같은 곳으로 귀결되는 그런 흐름이랄까요?
|
|
|
사진 : MindEye2의 Pipeline (출처) |
|
|
StreamMultiDiffusion은 실시간 영역 기반 텍스트-이미지 생성 모델로 서울대 ComputerVisionLab 연구원들이 발표했습니다. 이미지 생성 속도가 이전 대비 훨씬 빨라졌고 모델을 다중 프롬프트 스트림 배치 아키텍처로 재구성했다고 합니다. 그 결과, 사용자가 텍스트 설명을 사용하여 특정 이미지 영역을 세밀하게 제어하면서도 원하는 크기의 고품질 이미지를 빠르게 만들어낼 수 있게 되었습니다. Github Repo에는 지역 기반 다중 텍스트-이미지 생성, 신속한 분리를 통한 이미지 인페인팅, 파노라마 생성 등을 수행하는 코드 예시도 함께 제공하고 있습니다.
여기서 끝나는 게 아니라 연구자들은 고맙게도 Gradio를 활용해 대화형으로 작동하는 Semantic Pallete(시맨틱 팔레트)라는 대화형 생성 패러다임을 제시하며 사용자가 직접 영역을 지정해 의미를 부여하는 방식으로 고품질 이미지를 실시간으로 생성할 수 있도록 도구도 공개 했습니다. : )
|
|
|
사진: StreamMultiDiffusion을 이용한 이미지 에디터 데 (출처) |
|
|
일반적으로 오디오 생성/변환을 위해서는 오디오의 멜-스펙트로그램을 생성한 후 이를 오디오로 변환하기 위해 보코더 같은 것을 사용하는데, 기존에는 단일 채널의 낮은 해상도만 지원되는 경우가 많았습니다. MusicHiFi는 이런 점을 개선해 저해상도 모노 오디오를 고해상도 스테레오 오디오로 만들어주는 효율적인 고음질 스테레오 보코더입니다. 이 모델은 저해상도 멜-스펙트로그램을 오디오로 변환하고, 대역폭 확장을 통해 고해상도 오디오로 업샘플링하며, 스테레오 오디오로 업믹스하는 3개의 생성적 적대 네트워크(GAN)의 캐스케이드를 사용합니다. 소개 페이지에 공개된 음원을 이어폰을 이용해서 확인하면 확실히 차이가 나는 것을 알 수 있으니 한번 들어보시기 바랍니다.
참고) 프로젝트, 논문, 소개영상 |
|
|
사진 : MusicHiFi 추론다이어그램(a), 단일 GAN 학습 다이어그램(b) (출처) |
|
|
인공지능 서비스의 배포와 운영 시 도움이 필요하신가요?
(주)소이넷은 인공지능 서비스를 제공하는 기업들 가운데 서비스 배포와 운영에서 어려움을 겪고 계신 곳에 도움을 드릴 수 있습니다.
혹시 구독자님의 회사는 다음과 같은 어려움을 겪고 계시지 않나요?
- AI 모델을 개발하고 학습 후 서비스를 위한 성능(Accuracy)은 달성했는데, 정작 최적화 엔지니어가 없어서 어플리케이션, 서비스로의 배포를 위한 실행최적화를 못하고 있어요!
- AI 서비스를 이미 제공하고 있지만, 비싼 클라우드 GPU 서버 인스턴스 사용료가 부담이 되네요. 흠... 경비를 절감할 수 있는 방안이 없을까?
- 서비스에 적합한 공개 SOTA 모델이 있지만 그대로 가져다 쓰기에는 우리 쪽 어플리케이션에 접목하기도 어렵고 운영 비용도 많이 들 것 같은데 어쩌지?
- 서비스에 사용되는 AI 모델을 통합적으로 관리, 배포, 모니터링을 하고 싶은데 그렇다고 비싸고 너무 복잡한 솔루션을 쓸 수는 없고 어쩌지?
- 비즈니스 도메인 기업이긴 한데 자체로 인공지능을 적용하기에는 기술적인 난이도도 있고... 어디 함께 공동 솔루션을 개발할 곳은 없을까?
그렇다면 언제든 아래 연락처로 문의 주세요. 함께 해결책을 고민해 드리겠습니다.
|
|
|
오늘의 뉴스레터는 여기까지 구독자님, 다음 번에도 재미나고 흥미로운 소식을 가지고
다시 찾아뵙겠습니다. |
|
|
구독해 주시면 좋은 소식, 정보로 보답하겠습니다. |
|
|
주식회사 소이넷 sales@soynet.io 경기 성남시 분당구 성남대로331번길 8 (킨스타워) 1503호
대표전화 : 031-8039-5377
|
|
|
|
|