인플루언서의 영향력에 대해 알아봅니다. 안녕하세요, 구독자님.
2024년 새해가 밝았습니다. 첫 한주는 잘 보내고 계신가요?
2023년에서 2024년으로 넘어가는 바로 그 시간, 경찰 추산 10만명에 가까운 많은 사람들이 보신각 타종식을 보기 위해 종로 근처에 모였었다고 합니다. 저는 타종식하는 그 순간은 꿈나라를 거닐다가 다음 날 기사와 영상으로 봤는데, 태양 모양의 거대한 구조물 (이름이 ‘자정의 태양’)이 마치 새해 첫해가 떠오르는 듯한 연출을 했는데 나름 색다른 느낌이었습니다. 타종 행사가 끝나고 나서 공연과 퍼레이드가 펼쳐졌구요.
제가 특이하게 본 것은 타종식 초빙인사에 글로벌 인플루언서들이 포함된 것이었습니다. 사회적으로, 문화적으로 의미있는 일을 하신 시민분들의 초대는 매년 있어 왔지만 한국을 해외에 알린 인플루언서들이 포함된 것은 흔히 보지 못했던 광경이었기 때문이죠. 최근 몇 년간 K팝, K드라마, K영화 등의 컨텐츠가 알려지면서 해외에서 많은 인기를 끌었는데 그렇게 된 배경에는 수많은 국내외 인플루언서들의 역할과 노력이 있었을테고, 그래서 저는 이번과 같은 변화는 참신하고 의미있는 시도라고 생각합니다.
인플루언서의 영향력에 대해 한 가지 예를 들어보면 유튜브 '영국남자' 채널이 있겠습니다. 2014년 이 채널에서 진행한 '불닭볶음면 챌린지(Fire Noodle Challenge)' 덕분에 삼양식품의 불닭볶음면이 전세계에 바이럴 마케팅이 되었다는 것은 잘 알려진 사실입니다. 기사에 따르면 삼양식품이 올해 매출 1조, 영업이익 1000억원을 달성할 전망이라는데 그 가운데 70% 가량이 불닭 시리즈에서 나오고 해외 매출 비중도 2015년부터 급격하게 증가되어 현재는 65% 가량이 될 정도라고 합니다. 물론 '영국남자' 채널 영상만으로 이렇게 된 것을 아닐테고, 당시 확산 분위기를 확인한 회사 측의 다양한 마케팅, 영업 전략이 있었을 거라 생각됩니다만, 인플루언서의 영향력을 인정하지 않을 수는 없을 것 같습니다.
인플루언서 시장 규모를 보면, 현재 19.5조에서 27년에는 47.2조까지 증가하고, 이 가운데 사람 인플루언서와 AI 인플루언서가 각각 11.9조→19조, 7.6조→28.2조로 성장할 전망이라고 합니다. ( 기사) 조만간 AI 인플루언서의 시장 규모가 엄청나게 커져 사람 인플루언서의 시장규모를 넘어설거라는 건데, 이런 전망의 배경에는 VR, AR, XR 기술을 바탕으로 한 메타버스 시장의 재등장이라는 기대가 깔려 있는 것 같습니다. 기술의 미성숙으로 인해 진척이 더뎠던 과거 사례를 넘어 앞으로 하드웨어나 소프트웨어 측면에서 획기적인 변화가 예상되고 있기 때문이죠. 기기 측면만 보면 애플의 비전프로 기기가 1월 중으로 출시된다고 하고 Meta 또한 주도권을 놓치지 않기 위해 퀘스트3 마케팅 확대와 퀘스트2 가격 인하를 단행하기로 했습니다. 두 기업이 추구하는 시장이 다소 달라 보이지만, 예전 경험을 보면 애플이 뛰어들면서 어쩌면 제대로 된 시장 형성이 시작되지 않을까 하는 기대도 해 봅니다.
AI 인플루언서에 대한 견해는 많이 갈리는 것 같습니다. 인간 인플루언서를 통한 광고, 마케팅을 할 때 제공해야 하는 비용이 너무 커서 AI 인플루언서를 검토하는 곳도 있는 반면, 광고 효과 측면에서 브랜드에 대한 인식, 선호도는 증가시키는데 효과가 있지만 인간 인플루언서처럼 바로 구매로 이어지게 하는 비율은 낮아 활용범위에 제한이 있을거란 인식이 있기 때문이죠. ( 기사) 흠... 그럼 ' 둘을 섞어 쓰면서 효과는 높이고 비용은 줄이는 방법'을 찾으면 되겠네요... 말처럼 쉽지는 않겠지만... ^^;
인플루언서 가운데 최근 몇 년 사이 새로 등장한 것으로 '버튜버'(버추얼+유튜버)가 있습니다. CG 기술과 모션캡처 등의 기술을 이용해 가상의 캐릭터를 만들고 이를 통해 유튜브 등 온라인 방송을 진행하는 것인데, 실제 진행하는 사람은 화면 상의 가상 캐릭터의 뒤에 숨겨져 있는거죠. 우리가 FaceSwap을 통해서 인물의 실제 얼굴을 가상으로 바꾸는 것을 확장해서 유튜브 영상에서 방송하는 사람과 배경 등을 통채로 가상의 것으로 대체하는 것이라고 보면 됩니다.
참고로 이런 버튜버 가운데 유명한 분으로 CODEMIKO라는 닉네임으로 활동하는 한국계 미국인 스트리머가 있습니다. 이름 때문에 처음에는 저도 일본 분인 줄 알았습니다. ^^; 이 분을 소개한 영상을 보면 버튜버가 어떤 것인지 어떤 방식으로 만들어지는지 등이 이해가 되실 것 같습니다. 링크 상의 영상이 2021년 것이니, 이후 이 분야에 얼마나 많은 변화가 있었을지는 대략 예상이 되시겠죠? 이런 사례 말고도 앞으로 생성형 AI와 결합해서 유튜브나 SNS상에 등장할 수 있는 새로운 인플루언서와 그들이 만들어 내는 컨텐츠 결과물의 파급효과는 적어도 기존의 것들과는 비교가 되지 않을 것 같습니다. 그래서... 미리 감탄을 해 두려고 합니다. 우와~~~
|
|
|
사진: V-Tuber CODEMIKO (출처) |
|
|
서울시, 2026년까지 서울 전역을 지능형 CCTV로 전환
서울시는 노후화된 저해상도 CCTV 카메라 교체와 일반 CCTV에 AI 기능을 탑재하는 방식으로 2026년까지 총 1265억의 예산을 들여 서울 전역을 지능형 CCTV로 전환할 계획이라고 밝혔습니다. 서울 전역에 깔려 있는 CCTV 수가 자그마치 16만대나 있다니... 놀랐습니다. 아시는 바와 같이 지능형 CCTV는 카메라에서 수집된 영상을 분석해서 배회, 쓰러짐, 폭행 등의 이벤트를 감지하고 이를 기반으로 위급상황을 판단해서 관제센터에 표출하게 됩니다. 우리나라의 치안상황이 다른 국가들 대비해서 좋다고 평가받는 이유 중 하나가 CCTV가 많고 이 때문에 범죄 검거율이 높기 때문이라는 것은 부정할 수는 없을 것 같습니다. ( 기사)
|
|
|
주요 기업 대표들, 신년인사로 AI 도입을 강조
2024년 새해를 맞아 국내 주요기업의 최고경영자들이 신년 인사를 했는데, 공통적으로 강조한 것은 'AI의 적극 도입'이었습니다. 주로 생성형 AI를 도입해서 사용자 경험과 업무 방식의 혁신을 주문한 것인데, 한쪽은 만드는 서비스나 제품의 혁신이나 개선을, 또 다른 한쪽은 기업 내부의 업무 효율을 노린 것입니다. 이는 삼성전자나 SK하이닉스 같은 제조업체 뿐만 아니라 통신/유통/금융 업계에서도 마찬가지였습니.다. 점차 AI가 성숙기에 근접하고 있고 이를 받아들일 역량을 확보했다는 자신감에서 나온 언급들이 아닐까 싶긴 합니다. 아니면... 필요성과 트랜드에 대해서는 공감을 했고 더 이상 시장의 흐름에 뒤쳐지지 않으려는 필사적인 몸부림이거나요... ( 기사) |
|
|
국내 통신 3사, 통신사 특화 LLM 개발 진행
국내 통신 3사가 기존의 통신사업 외에 AI가 적용된 신사업을 개척하는 일환으로 통신분야에 특화된 LLM 개발을 하고 있는 것으로 알려졌습니다. SKT는 도이치텔레콤과 함께 독일어/영어/한국어 등을 지원하는 특화 LLM을, KT는 자체 LLM인 '믿음'을 이용해 태국 IT기업인 자스민 그룹과 합께 태국어 LLM 구축을, LG유플러스는 LG엑사원 기반으로 개발 중인 '익시젠'을 통해 통신/플랫폼 전용 LLM을 개발하고 있다고 합니다. ( 기사) |
|
|
경상남도 소방본부, AI기반 신고 접수 시스템 본격 운영
경상남도 소방본부가 '인공지능 기반 신고접수시스템' 고도화 구축을 완료하고 운영에 들어갔다고 밝혔습니다. 신고접수 시 음성 통화 내용을 AI를 통해 문자로 전환하고 이를 표출해 주는 방식입니다. 경남지역 사투맇와 억양을 반영하기 위해 AI 학습이 이뤄졌고 신고 내용 분석 기능과 신고자의 위치 반경 내 의료기관 추천, 의약품 명칭에 따른 실시간 세부 정보 조회 및 약품 간 상호작용/부작용 안내, 통화 내용 분석 등의 기능 등을 지원한답니다. ( 기사) |
|
|
사진: AI 기반 신고접수시스템 운영 (출처) |
|
|
최근 들어 비디오 영상을 생성하는 모델들이 많이 발표되고 있습니다. 텍스트-비디오, 이미지-비디오 방식의 생성모델이나 기존의 비디오에 특정한 스타일을 적용하는 것도 있고 비디오 영상의 인, 아웃페인팅을 지원하는 것들도 있습니다. 정말 '내가 제일 잘나가~'하며 한 모델이 나오면 곧이어 이를 뛰어넘거나 다른 방식을 지원하는 모델들이 다시 손을 듭니다. 춘추전국시대라 할 수 있겠습니다.
하지만, 이런 비디오 생성 모델들의 결과물을 보면, 아직은 아쉬운 부분들이 다수 보입니다. 대부분이 짧고 움직임이 극히 제한되며, 프레임 간 일관성이 제대로 보장되지 않아 영상이 이상하게 보이는 것이 대부분이기 때문이죠. 즉, 일관된 대규모 모션을 생성하는 것이 어렵다는 얘기입니다.
VideoPoet은 이런 문제를 해결하기 위한 방안으로, 기존의 비디오 생성 모델들이 용도 별로 제각각의 작업을 수행할 수 있는 구성요소들이 필요했던 것과는 달리 단일 LLM 내에서 각 기능들을 통합해서 이미지를 움직임으로 변환하고 비디오를 편집해서 인페인팅, 아웃페인팅, 오디오 생성을 통합적으로 처리할 수 있도록 했습니다.
모델의 학습에는 웹과 앱, 인터넷 공개 데이터 및 기타 소스 등에서 2억 7천만 개의 동영상과 10억 개 이상의 텍스트-이미지 쌍 데이터 등이 사용되었다고 합니다. 학습을 위해 여러 토큰화 도구(비디오 및 이미지의 경우 MAGVIT V2, 오디오는 SoundStream)를 사용해 각 타입의 데이터를 텍스트 임베딩, 비주얼 토큰 및 오디오 토큰으로 전환하고 특정 컨텍스트에 따라 조건부 토큰을 생성하면 토크나이저 디코더를 통해 결과물 표현으로 변환되는 방식을 채택하고 있습니다.
기능 별 특징을 요약하면 다음과 같습니다.
- 텍스트 to 비디오 : 가변 길이의 비디오 출력을 지원하며, 텍스트 내용에 따라 다양한 움직임과 스타일을 적용할 수 있음
- 이미지 to 비디오 : 입력 이미지를 프롬프트와 함께 움직임으로 애니메이션화할 수 있음
- 비디오 스타일링 : Optical Flow와 Depth 정보를 예측한 후 추가 입력 텍스트와 함께 모델로 입력되어 지정된 스타일이 적용됨
|
|
|
사진 : VideoPoet 모델 개요 (상), 모델의 순차 레이아웃 (하) (참조) |
|
|
Marigold: Repurposing Diffusion-Based Image Generators for Monocular Depth Estimation
|
|
|
예전에도 깊이 예측 모델을 소개해 드린 적이 있었습니다. 잘 아시는 바와 같이 깊이 예측은 2D 이미지를 3D로 이해하고 표현하기 위해 사용됩니다. 단안 이미지에서 진행되는 이런 사례 대신 주로 현장에서는 Lidar나 ToF 카메라 혹은 Stereo Camera를 등을 이용하는 경우가 많습니다. 단안 이미지에서 깊이를 예측하는 것은 그만큼 어렵고 정확도 측면에서 한계가 있기 때문이죠.
깊이 예측 모델의 원리는, 컴퓨터가 많은 사진들을 보고 그 안에 있는 물체들의 모양과 색깔, 위치 등을 기억하고, 이후에 새로운 이미지를 보면 이전에 기억된 것들을 활용해서 물체들의 거리를 추정하게 되는 것입니다. Marigold는 이런 깊이 예측 모델 가운데 하나입니다. 이 모델의 특이한 부분은 이미지 생성모델로 알려진 Stable Diffusion의 VAE를 깊이 예측에 활용하고 있다는 것과 가상데이터를 이용해서 학습되었으면서도 높은 성능을 보인다는 것입니다. 참고로 해당 모델은 Apache 2.0 라이선스로 제공되고 있습니다.
이를 이용하면 재미난 장난감도 만들 수도 있을 것 같습니다. 예를 들면 Magic Sand ( 링크) 같은 것 말이죠. 예전에는 키넥트 같은 Stereo Camera를 깊이 측정에 사용했었는데 단안 카메라 영상을 기반으로 한 이런 모델을 경량화해서 초소형 엣지기기에서 동작하도록 만들면 초소형 빔프로젝트와 함께 결합해서 포터블 매직샌드 기기를 만들수도 있지 않을까 싶은거죠.
참고) 뜬금없이 모델 이름에 대해 얘기를 해 보면... 메리골드는 원래 국화과에 속하는 식물인데 국내에서는 '천수국' 혹은 '만수국'이라고 불리기도 합니다. (금잔화로 해석하는 곳도 있지만 다른 종입니다) 왜 모델 이름으로 이걸 선택했는지는 모르겠지만, 제 경우엔 깊이 예측이 된 결과물 이미지의 색상이 그 꽃을 보고 있을 때 드는 느낌과 비슷해 보여서가 아닐까 하는 근거없는 생각도 해 봤습니다. ^^;
|
|
|
사진: Marigold 모델의 Inference Sceme (상), 적용 결과 예시 (하) (출처) |
|
|
Personalized Restoration via Dual-Pivot Tuning
|
|
|
오래된 사진이나 저화질의 카메라에서 멀리 있는 사람을 촬영했을 때 찍힌 사람의 얼굴을 복원을 해야할 때가 있습니다. 이를 위해 사용할 수 있는 모델들이 이미 많이 나와 있죠. 그런데, 이때의 복원은 입력으로 제공되는 사진 이미지만을 이용하기 때문에 특정 개인의 고유한 얼굴 특징이 정확하게 표현되기 어렵다는 한계가 있습니다. 이런 문제를 해결하기 위해 참조가 될 고품질의 이미지 세트를 이용해서 일종의 개인화된 사전을 만들고, 이를 활용해서 손상된 이미지를 복원할 때 개인의 고유한 특징이 반영되도록 하는 방법이 제안되었습니다.
여기서 사용하고 있는 Dual-Pivot Tuning 이라는 접근법은 생성모델을 텍스트 피봇을 기준으로 미세조정하는 단계와 가이딩 네트워크를 생성 모델을 피봇해서 조정하는 단계로 구성되어 있습니다. 핵심적인 부분은 생성 모델은 고정된 텍스트 피봇 주변으로 조절되어야 하고, 가이딩 네트워크는 개인화되지 않은 일반적인 방식으로 튜닝되어야 한다는 것입니다. 여기서 피봇이란 어떤 조정이나 변형의 중심이 되는 기준점, 즉 생성 모델을 최적화하거나 개인화할 때 사용되는 고정된 지점을 의미합니다.
이를 활용하면 텍스트 기반 이미지 편집이나 얼굴 스와핑 같은 작업에 활용될 수 있으며 이런 내용들은 해당 프로젝트 사이트에 다양한 예시로 소개 되어 있습니다.
참고) 프로젝트, 논문, 코드(깃헙)
* 코드는 아직... 조만간 공개될 예정이라고 합니다. |
|
|
사진 : 모델의 Scheme (상), 적용 결과 예시 (하) (출처) |
|
|
MobileSAMv2 : Faster Segment Anything to Everything
|
|
|
MobileSAM은 객체 세그먼트와 프롬프트 기반 마스크를 생성하는 모델로 경희대 연구팀에 의해 발표되었습니다. 기존 Meta의 SAM 대비 매개변수 수를 1/100 수준으로 줄이고(9.66M개), 추론속도는 60배 가량 높였다고 합니다. SAM 모델에서 Faster SegAny (Segment Anything)을 추구한 것이 MobileSAM, Faster SegEvery (Segment Everything)을 추구한 것이 MobileSAMv2라고 합니다. 참고로 SegAny는 이미지에서 관심있는 단일 항목을, SegEvery는 모든 요소를 분할하기 위해 특정 프롬프트를 사용하는 것에 중점을 두며 SegEvery는 SegAny와는 달리 분할 프롬프트에 의존하지 않고 이미지를 직접 생성합니다.
처리 속도를 높이기 위해 MobileSAM은 무거운 이미지 인코더를 가벼운 것 (TinyViT)으로 대체하고, MobileSAMv2에서는 SegEvery의 속도 향상을 위해 프롬프트 샘플링 전략을 제안했습니다. MobileSAMv2는 객체 탐지모델을 이용해서 객체에 관련된 프롬프트를 샘플링하고(개체 인식 상자 프롬프트, object-aware box prompt), SAM의 마스크 디코더에 이를 제공하여 분할 마스크를 생성하며, 추가적으로 불필요한 프롬프트와 마스크를 줄이고 마스크 필터링 과정을 생략함으로써 효율성과 성능을 달성했다고 합니다.
참고) 논문, 코드(깃헙), 데모, 소개글
|
|
|
사진 : MobileSAM 모델 아키텍처 (출처) |
|
|
인공지능 서비스의 배포와 운영 시 도움이 필요하신가요?
(주)소이넷은 인공지능 서비스를 제공하는 기업들 가운데 서비스 배포와 운영에서 어려움을 겪고 계신 곳에 도움을 드릴 수 있습니다.
혹시 구독자님의 회사는 다음과 같은 어려움을 겪고 계시지 않나요?
- AI 모델을 개발하고 학습 후 서비스를 위한 성능(Accuracy)은 달성했는데, 정작 최적화 엔지니어가 없어서 어플리케이션, 서비스로의 배포를 위한 실행최적화를 못하고 있어요!
- AI 서비스를 이미 제공하고 있지만, 비싼 클라우드 GPU 서버 인스턴스 사용료가 부담이 되네요. 흠... 경비를 절감할 수 있는 방안이 없을까?
- 서비스에 적합한 공개 SOTA 모델이 있지만 그대로 가져다 쓰기에는 우리 쪽 어플리케이션에 접목하기도 어렵고 운영 비용도 많이 들 것 같은데 어쩌지?
- 서비스에 사용되는 AI 모델을 통합적으로 관리, 배포, 모니터링을 하고 싶은데 그렇다고 비싸고 너무 복잡한 솔루션을 쓸 수는 없고 어쩌지?
- 비즈니스 도메인 기업이긴 한데 자체로 인공지능을 적용하기에는 기술적인 난이도도 있고... 어디 함께 공동 솔루션을 개발할 곳은 없을까?
그렇다면 언제든 아래 연락처로 문의 주세요. 함께 해결책을 고민해 드리겠습니다.
|
|
|
오늘의 뉴스레터는 여기까지 구독자님, 다음 번에도 재미나고 흥미로운 소식을 가지고
다시 찾아뵙겠습니다. |
|
|
구독해 주시면 좋은 소식, 정보로 보답하겠습니다. |
|
|
주식회사 소이넷 sales@soynet.io 경기 성남시 분당구 성남대로331번길 8 (킨스타워) 1503호
대표전화 : 031-8039-5377
|
|
|
|
|