전염성있는 독감과 가짜뉴스 모두 조심하세요. 안녕하세요, 구독자님.
12월 첫날입니다.
이번 한 주도 잘 보내고 계신가요?
최근 중국에서는 마이코플라스마 폐렴(Mycoplasma pneumoniae)과 독감 등 호흡기 질환이 한꺼번에 퍼지고 있다고 합니다. 코로나19 발생 때, 제로 코로나를 표방하며 봉쇄 정책을 편 탓에 사람들의 면역력이 전반적으로 낮아졌기 때문이고 폐렴의 경우엔 폐렴균이 항생제 내성이 강해졌기 때문이라는 분석도 있었습니다.
독감의 확산은 우리나라도 비슷한 상황입니다. 추위가 기승을 부리면서 연령대를 불문하고 전국적으로 급속히 퍼지고 있죠. 유아, 노년층은 무료로 접종이 가능하고 다른 연령층에도 예방백신을 맞으라는 권고가 되었지만 예상보다 접종률은 많이 저조한 실정입니다. 코로나19를 거치면서 백신에 대한 불신이 커졌고 특히 젊은층의 경우에는 걸렸다가도 심각한 증상없이 회복이 된다는 생각 때문에 접종 자체를 기피하는 사람들이 많아졌다고 합니다. 그 때문에 백신 제조사들이 재고 우려로 가격까지 낮추고 있다나요... ( 기사) 병원마다 고무줄 같은 독감 백신 접종 가격 때문에 싼 곳을 찾아 타지까지 가서 접종한다는 뉴스를 매년 접했던 터라 이런 기사는 새삼스럽습니다. 어찌됐건 걸리면 짧더라도 며칠을 고생하게 되니 독감에 걸리지 않도록 다들 유의하시기 바랍니다.
전염병만큼 위험한 것이 가짜뉴스, 가짜정보인 것 같습니다. 퍼지는 속도로만 보면 코로나나 독감 바이러스보다 훨씬 빠르죠. 게다가 일단 접하면 잠복기도 없이 사람들의 생각에 바로 영향을 미치게 되고 결국 다른 사람들에게도 그걸 다시 전파하는 전개로 이어집니다. 이런 가짜뉴스, 가짜정보는 남을 속이거나 공격해서 경제적, 정치적 잇점을 얻거나 단순히 자신의 SNS 조회수를 높여 주목을 끌려는 등 다양한 목적으로 만들어지고 퍼집니다. 물론 의도적이지 않은 가짜뉴스도 있을 겁니다. 예를 들면 기자의 부실취재로 인한 오보나 공인에 대한 풍자나 비꼼이 사람에 따라서는 가짜로 판단할 수도 있겠죠. 앞서 언급한 가짜뉴스는 명백히 허위임을 알면서도 유포하거나 악의적으로 왜곡하는 경우를 말한 것입니다.
가짜뉴스의 문제는 정보가 퍼지는 속도가 너무 커서 이로 인한 파급효과를 감당 수 없다는 것에 있습니다. 해당 뉴스나 정보가 진실인지 가짜인지 기초적인 필터링조차 되지 않은 상태에서 광범위하게 퍼지고 많은 사람들은 이를 믿게 됩니다. 잘못된 정보인지 판별하기 위해 도움을 줄 수 있는 도구를 우리가 많이 사용하는 플랫폼들이 제공하지 못하고 있기 때문에 퍼지는 속도 또한 늦춰지지도 않죠. 그렇다고 플랫폼들이 내용을 일일이 검열하는 것은 또 다른 종류의 왜곡이 들어갈 수 있기 때문에 바람직하지 않죠. 검증 도구 측면은 최근 X (구 트위터)에서 제공하는 ' Community Notes' 같은 것도 하나의 대안이 될 수 있다고 생각합니다. 오해의 소지가 있는 트윗에 사용자들이 공동으로 배경 정보를 추가하고 충분히 많은 참여자들로부터 유용하다는 평가를 받으면 트윗에 공개 표시되는 방식입니다. ( 링크)
영어사전으로 유명한 메리엄-웹스터(Merriam-Webster)가 선정한 올해의 단어는 진짜를 의미하는 'authentic'(링크)이라고 합니다. 발행인은 해당 단어가 여러가지 의미를 갖고 있기 때문이기도 하지만 동시에 AI로 인해 만들어지는 컨텐츠들로 인해 진짜와 가짜의 경계가 모호해진 것 때문이라는 분석을 내놓았습니다. 그 뒤를 이은 단어로 'deepfake'가 나왔다고 하니 전체 맥락상으로는 충분히 납득될 것 같습니다. 하지만... 미국이나 한국이나 내년에는 많은 선거가 있는데... 내년의 단어도 비슷한 의미를 갖는 것이 되지 않을까 하는 생각이 들었습니다. 참고로 2022년 올해의 단어는 ' gaslighting'이었다고 합니다. (기사)
독감과 가짜뉴스. 하나는 의료분야로 사람의 몸에, 또 다른 하나는 사회분야로 사람의 '뇌'와 판단에 작용하는 어쩌면 전혀 다른 주제이지만, 그것이 퍼지는 방식이나 퍼졌을 때의 파급효과라는 측면에서는 상당한 유사점이 있는 것 같습니다. 그러니 독감을 예방하기 위해 마스크 쓰기와 손씻기 같은 행동을 하는 것처럼, 가짜뉴스를 걸러낼 수 있도록 평상시에 '다양한 의견을 청취해보려는 노력과 한번쯤은 의심해보는 노력'이라는 필터를 눈/귀와 머리에 장착해 두는 것이 필요할 것 같습니다.
지난 소식에서는 너무 빠르게 발전하는 기술을 따라잡지 못하는 고충에 대해 얘기했었습니다. 저같은 일부만 그런 상황인가 했는데, 최근 조사에 따르면 국내 기업 97%는 조직의 AI 기반 기술도입이 시급해졌다고 응답했지만 실제로는 5% 밖에 준비가 안 되어있다는 기사를 보고, 잘 나가는 기업들도 마찬가지구나... 아직 쫓아갈 시간이 있겠다 싶어 약간의 안도가 되었습니다. ^^; |
|
|
- 아마존(Amazon), AI업무 비서 챗봇인 '아마존 Q' 발표
아마존도 챗GPT 시장에 뛰어 들었습니다. 'Amazon Q'는 업무에 사용할 수 있도록 한 AI 챗봇인데 이번에 발표된 것은 개발자나 비즈니스 전문가를 위한 것이고 앞으로 SCM, CRM 용 Amazon Q도 내놓을 예정이라고 합니다. Amazon Q는 일반적인 전문가 Chatbot 역할과 Copilot 같은 개발자 지원, AWS의 솔루션 설계 및 관리, 40개 이상의 내장 Connector를 통해 회사 내의 데이터, 정보 및 시스템과 연결해서 맞춤화하는 작업도 가능하다고 합니다.
OpenAI나 Meta 등이 연구 개발을 주로 한다고 보면 Microsoft나 Salesforce, Amazon 등은 이런 기술을 고객의 실제 업무에 적극적으로 접목하는데 더 집중하고 있다는 것을 알 수 있습니다. 앞으로 이런 서비스가 점점 더 고도화되면 이를 사용하는 기업들은 Lock-In될 수 밖에 없는 상황이 펼쳐질 것 같습니다. (링크)
|
|
|
사진: Amazon Q가 제공하는 QuickSight 기능 (출처) |
|
|
- 광주 AI 데이터센터 준공
2020년부 2024년까지 총 4000억을 들여 구축 중인 인공지능산업 육성 사업의 핵심 시설인 인공지능 데이터센터가 공식적으로 가동을 시작했습니다. 광주시 북구 오룡동에 위치한 이곳은 88.5페타플롭스 규모의 연산 능력을 보유하고 있는데 이는 네이버, 삼성전자에 이어 국내 3위 수준이라고 합니다. 우선 261개 기업을 선정해서 인프라를 사용하도록 하고 이후 사용 범위를 더 확대할 계획이라고 합니다. (기사)
|
|
|
사진: AI 데이터센터에서 제공할 컴퓨팅 자원 서비스 개요 (출처) |
|
|
- AI 학습을 위한 데이터 저작권 관련 법안 및 가이드라인 수립
ChatGPT가 이제 갓 한살이 되었습니다. 그 사이 수많은 생성형 AI 서비스가 등장했고 글로벌 기업들 간에 주도권을 잡으려는 경쟁이 치열한 상황입니다. 과거에도 다음과 네이버가 한국어 데이터와 특화된 서비스를 이용해서 글로벌 검색엔진 기업의 침공을 막아낸 바 있었죠. AI 서비스 측면도 내 대표 기업들 (예:네이버, 삼성, LG, KT, 카카오, 솔트룩스, 등등)이 구글, OpenAI 등과 맞서 싸울 수 있는 무기를 만들어 나가고 있습니다. 하지만 LLM(거대언어모델)은 워낙 차원이 다른 규모로 기술개발과 투자가 진행되고 있는터라 국내 기업들이 싸울 체력을 확보하는데 상당한 어려움이 있을 것으로 예상되고 있습니다.
첫째, 제대로 된 AI 학습용 데이터 확보가 용이치 않습니다. 수년간 AI Hub와 각종 데이터 구축 과제를 통해 상당부분은 되어왔지만 훨씬 더 광범위하게 보유 중인 산업계 데이터들을 활용하기 위해서는 '규제의 벽'을 넘어야 하기 때문입니다. 이를 위해 제도 개선이 논의되고 있는데 그 중 하나가 국회에서 논의되고 있는 '저작권법 전부 개정안'입니다. 여기에는 AI 학습을 위해 사용하는 데이터에 일부 면책 조항을 부여하고 관련 기준을 제시하는 것이 필요하다는 내용이 포함되어 있습니다. 그렇지 않아도 데이터 양이 절대적으로 부족하기도 하고 학습 시 사용도 제한된 형식으로만 가능하다면, 훨씬 방대한 데이터를 보유하고 있는 해외 빅테크 기업이 만들어내는 AI 기술에 밀릴 수 밖에 없을테죠.
둘째, AI모델의 학습에 사용된 데이터에 포함된 저작물에 대한 저작권 침해 우려가 있습니다. 이 부분은 이미 해외에서도 집단소송 등의 형태로 많이 붉어지고 있는 상황입니다. 정말 어떻게 상호 합의가 되어 풀릴지는 지켜봐야 할 사안입니다. (기사)
|
|
|
아시는 바와 같이 LoRA(Low-Rank Adaptation)는 기존의 딥러닝 모델을 적은 수의 파라미터 변경으로 효율적으로 미세조정할 수 있도록 해 주는 기법입니다. 마치 사진앱 등에서 이미지에 필터를 이용해서 다양한 형태의 효과를 내는 것처럼, Stable Diffusion 같은 모델을 이용해 이미지를 생성할 때 LoRA를 적용해서 원하는 스타일을 그림을 만들어 내기도 합니다. 그런데 이런 LoRA들은 대부분 독립적으로 훈련되어 있기 때문에 각각의 스타일로 적용되죠. 그래서, '몇 개를 함께 조합한 것이 따로국밥처럼 놀지 않고 잘 융합되어 나타난다면' 하는 바램을 가지기도 했었습니다.
ZipLoRA는 독립적으로 훈련된 스타일과 주제의 LoRA들을 합쳐 사용자가 제공한 어떤 주제나 스타일로 생성할 수 있는 미세조정 방법으로 소개되었습니다. 이 접근 방식은 SDXL이 단일 예시 이미지를 사용하여 스타일을 배울 수 있고, LoRA 가중치 행렬의 대부분 요소가 생성 품질과 충실도에 큰 영향을 미치지 않으며, 두 독립적으로 훈련된 LoRA들의 가중치 행렬 열 간에 다양한 수준의 정렬이 존재한다는 주요 관찰에 기반을 두고 개발되었다고 합니다. ZipLoRA를 이용하면 참조 객체를 다양한 맥락에서 재구성하고 의미 있는 수정을 하면서도 스타일 품질을 유지하면서 강도를 추가로 제어할 수 있다고 하네요.
|
|
|
사진: Ziplora 개요 (상), 적용방식 설명 및 사례 (하) (출처) |
|
|
Stability AI가 Stable Video Diffusion (SVD) Image-to-Video 모델을 발표했습니다. SVD, SVD-XT 모델을 함께 발표했는데, 전자는 576x1024 해상도로 14 frame의 영상을 생성하며, 후자는 미세조정된 25 frame 영상을 생성할 수 있습니다. SVD는 고해상도 텍스트-비디오 및 이미지-비디오 합성을 위한 최첨단 잠재 비디오 확산 모델로 텍스트-비디오 및 이미지-비디오 합성, 특히 고해상도 출력, 효율적인 다중 시점 합성 및 다양한 응용 분야에 대한 적용 및 미세조정 등의 특징을 가지고 있습니다. 실제로 공개된 생성영상을 보면 고퀄에 프레임 사이에도 어색함이 거의 없어 보입니다. 오~!!! 다만, 생성 가능한 영상의 길이 자체가 그리 길지 않고, 장면전환이 급격하게 이뤄지는 예시는 없었던 것으로 봐선 이 기술들만 사용해서 전체 영상이 만들어지려면 아직도 가야할 길은 멀어 보이긴 합니다.
|
|
|
사진: SVD, SVD-XT와 다른 경쟁서비스와의 비교 (출처) |
|
|
TimeGPT는 시계열 예측을 위한 기초 모델로, 대규모 언어 모델 GPT의 아키텍처를 시계열 데이터에 적용한 것입니다. 소개글에는 첫번째 시도라고 되어 있더군요. 이 모델은 금융, 경제, 날씨, 웹 트래픽, 에너지, 판매 등 다양한 분야 1000억 개 이상의 시계열 데이터 포인트를 사용해 훈련했다고 합니다. 시계열 데이터들이 주로 적용되는 분야의 특징적인 요소들이 있을텐데 그런 것들을 포괄하는 광범위한 데이터를 대상으로 학습을 했다는 것이 흥미롭습니다.
TimeGPT가 가진 특징을 몇 가지로 요약하면 다음과 같습니다.
-
TimeGPT는 Transformer 아키텍처를 기반으로 하며, 인코더-디코더 구조를 사용합니다. 입력 데이터는 역사적 데이터와 외부 변수가 포함될 수 있습니다.
-
앞서 언급한 것처럼 다양한 분야의 시계열 패턴을 학습하여 일반화 능력을 갖추고 있으며, 사용자가 설정한 예측 범위까지 예측 생성이 가능합니다.
-
TimeGPT는 예측 간격을 추정하고 이상 탐지를 수행할 수 있는 Conformal Prediction 기술을 사용합니다.
-
TimeGPT는 zero-shot 추론을 수행할 수 있으며, 특정 데이터셋에 대한 훈련 없이도 예측을 생성할 수 있습니다. 타 모델들과 비교 시 낮은 MAE(Mean Absolute Error)와 MSE(Mean Squared Error)를 보여준다고 합니다.
소개글에서 글쓴이는 TimeGPT가 학습에 사용한 적이 없을만한 자신의 블로그 방문자 추이 데이터를 가지고 사례 설명을 했습니다. 해당 모델을 사용해 보려면 Nixtla 사이트에서 베타 사용 신청을 해야하는 것 같습니다. 아직 코드도 공개되어 있지 않구요...
|
|
|
사진: TimeGPT의 데이터 학습, inference 방식 (출처) |
|
|
인공지능 서비스의 배포와 운영 시 도움이 필요하신가요?
(주)소이넷은 인공지능 서비스를 제공하는 기업들 가운데 서비스 배포와 운영에서 어려움을 겪고 계신 곳에 도움을 드릴 수 있습니다.
혹시 구독자님의 회사는 다음과 같은 어려움을 겪고 계시지 않나요?
- AI 모델을 개발하고 학습 후 서비스를 위한 성능(Accuracy)은 달성했는데, 정작 최적화 엔지니어가 없어서 어플리케이션, 서비스로의 배포를 위한 실행최적화를 못하고 있어요!
- AI 서비스를 이미 제공하고 있지만, 비싼 클라우드 GPU 서버 인스턴스 사용료가 부담이 되네요. 흠... 경비를 절감할 수 있는 방안이 없을까?
- 서비스에 적합한 공개 SOTA 모델이 있지만 그대로 가져다 쓰기에는 우리 쪽 어플리케이션에 접목하기도 어렵고 운영 비용도 많이 들 것 같은데 어쩌지?
- 서비스에 사용되는 AI 모델을 통합적으로 관리, 배포, 모니터링을 하고 싶은데 그렇다고 비싸고 너무 복잡한 솔루션을 쓸 수는 없고 어쩌지?
- 비즈니스 도메인 기업이긴 한데 자체로 인공지능을 적용하기에는 기술적인 난이도도 있고... 어디 함께 공동 솔루션을 개발할 곳은 없을까?
그렇다면 언제든 아래 연락처로 문의 주세요. 함께 해결책을 고민해 드리겠습니다.
|
|
|
오늘의 뉴스레터는 여기까지 구독자님, 다음 번에도 재미나고 흥미로운 소식을 가지고
다시 찾아뵙겠습니다. |
|
|
구독해 주시면 좋은 소식, 정보로 보답하겠습니다. |
|
|
주식회사 소이넷 sales@soynet.io 경기 성남시 분당구 성남대로331번길 8 (킨스타워) 1503호
대표전화 : 031-8039-5377
|
|
|
|
|