늘 균형을 잡아가는 자세가 중요합니다. 안녕하세요, 구독자님.
이번 한 주도 행복하게 보내고 계신가요?
얼마 전 추천받아 시청한 유튜브 영상이 있는데 도파민(Dopamine)의 기전과 중독, 그리고 그에 대한 대처 방법에 대한 내용을 담은 스탠포드 박사님의 강의였습니다. ( 링크) 뇌과학 연구에서의 흥미로운 발견인 뇌의 쾌락회로인 보상경로와 뇌 신경전달물질인 도파민에 대한 연구 결과를 바탕으로 쾌락과 고통의 원리를 설명하는 것이었죠.
우리 몸에서 쾌락과 고통에 대한 처리는 뇌의 같은 영역에서 이뤄지며 서로 균형을 이루도록 작동한답니다. 즉, 쾌락이 발생하면 고통이 튀어나와 이를 상쇄하는 방식인데 박사님은 시소 그림으로 이해하기 쉽게 설명을 하고 있습니다. '쾌락' (자극 예: 달콤한 음식, 게임, 스마트폰, 온라인 컨텐츠 등등)이 발생하면 균형을 맞추기 위해 '고통' 괴물이 등장하는데, 다시 균형 상태로 가는데까지는 시간이 걸리게 되죠. 그런데 그걸 못 견디고 더한 자극을 주게 되면 도파민이 생성되는 정도가 점점 낮아져서 균형이 아닌 도파민 결핍 상태가 지속된다는 겁니다. 이후 다시 계속 자극을 주입해줘야 균형이 유지되는 악순환이 지속되는거구요. 보통 이런 것을 '중독'이라고 합니다.
영상 말미에서 제시한 해결책은 '절제(Abstain)', '유지(Maintain)', '고통 찾아나서기(Seek out Pain)'을 하라는 것이었습니다. '절제'는 자극 자체를 절제하라는 것이고 '유지'는 일종의 거리두기 같은 것을 하라는 것입니다. 지리적(예:과자를 집에 두지 않기), 시간적(폰 쓰는 시간대를 정해두기), 다른 종류의 행동을 하기(예: 게임이면 다른 종류의 것으로 바꾸기) 등이 해당됩니다. 나머지 하나가 '고통 찾아나서기'인데 균형을 거꾸로 맞추기 위한 방법이죠. 예로 나온 것이 운동, 냉수샤워, 금식, 기도, 명상 같은 것이었는데 실제로 그런 것들을 하게 되면 효과가 있다고 합니다.
|
|
|
사진: 쾌락과 고통 간 균형 유지를 위한 방법에 대한 설명 (출처) |
|
|
뜬금없이 도파민 얘기를 한 것은 새로운 사실을 알게 되어 소개하고 싶었기 때문이기도 하고, 새로운 기술이나 뉴스를 찾아 들여다보는 것에 '중독'되어 있는 저 자신의 모습이 보였기 때문이기도 합니다. 현대세계 특히 변화 속도에서는 그 누구보다도 뒤쳐지지 않는다는 우리나라에서는 앞서 나온 '절제'와 '유지'는 제겐 너무 어려운 숙제인 것 같습니다. 은퇴 이후에나 그럴 수 있지 않을까 싶을 정도로 말이죠. 그래서, 저는 짬짬이 세번째였던 '고통 찾아나서기'를 시도해 볼 생각입니다. 물론 어려운 것 말고 쉬운 것 위주로 말입니다. 평소에 귀찮아서 하지 않고 미뤄뒀던 집안일들을 하는 것이나 겨울철에 추위를 견뎌가며 할 수 있는 야외 운동거리 같은 것이 대상이 될 것 같습니다. 그러다 불현듯 이런 생각이 들었습니다. 쾌락을 주는 자극이라고 생각한 것들을 고통을 주는 것으로 받아들이도록 마인드컨트롤 하는 연습을 하면 원할 때마다 균형을 맞출 수 있지 않을까? 아무리 재미있어서 하는 것도 '일'이라고 생각하면 힘들어지는 원리를 이용하는 방식으로 말이죠. ^^
비 오는 금요일 오후 잘 보내시고 주말에는 눈 소식이 있을거라는데 운전하시는 분들은 빗길, 눈길 조심하시기 바랍니다. |
|
|
세계 최대 머신러닝 학회 NeurIPS 2023 개최 세계 최대 머신러닝 학회인 NeurlPS (신경정보처리시스템학회) 2023이 미국 뉴올리안즈에서 12/10~12/16까지 열리고 있습니다. 전세계의 내놓으라는 머신러닝, 딥러닝 연구자들이 각자의 연구성과를 자랑하는 자리이니 이 행사가 끝나고 나서 또 얼마나 많은 것들이 쏟아질지는 대충 상상이 됩니다. 국내에서도 대표적인 테크 기업들과 학계에서 참가하고 있습니다. (사이트)
유럽연합 인공지능 규제법안 합의
유럽연합(EU) 회원 27개국 대표들이 인공지능 기술을 규제하기 위한 포괄적 법안 (일명 'AI 규제법')에 합의했다고 발표했습니다. 내년 초에 공식적으로 비준되어 2026년에 발효될 예정이라고 합니다. 이 법안은 위반 시 최대 3500만유로(약 497억원) 또는 전 세계 매출의 7%에 달하는 벌금을 맞을 수 있는 아주 무시무시한 규제입니다. 특징적인 것은 AI 기술의 위험 정도에 따라 4 등급으로 나누고 차등적으로 규제가 적용된다는 것입니다. 예를 들어 위험도가 높다고 평가되는 안면인식 기술의 경우 생체 정보의 실시간 수집을 아예 금지하도록 하는 것이 있겠습니다. (관련기사)
Microsoft, 데이터센터 전력수요 충당을 위해 SMR 검토
LLM 등 인공지능 모델의 학습을 위해 대부분 대규모 데이터센터를 활용합니다. Microsoft 또한 OpenAI의 ChatGPT 등 생성형 AI 모델의 학습을 지원하고 있고 전세계 많은 기업들이 Azure Cloud 서비스를 사용 중이죠. 그런데 이를 위해서는 막대한 전력이 필요한데 AI의 등장으로 데이터센터에서 늘어난 전력수요를 감당하기 위해 Microsoft가 소형원전의 활용을 추진하고 있고, 규제 승인의 지연 문제를 해결하기 위해 진행 중인 SMR 승인작업 처리를 위해 AI를 활용하는 적극적인 모습까지 보이고 있다고 하네요. ( 기사)
현재 국내 산업계에는 딜레마에 빠져 있습니다. 전기차 시장 확대, AI 확산 등 새로 나오는 요건 외에도 RE100 준수를 위해 기존 제조산업에서도 에너지원을 재생에너지로 빨리 전환하는 것이 필요한데 국내 발전 현황에 따르면 그게 쉽지 않은 상황이기 때문이죠. 참고로 원전은 RE100이 지정하는 재생에너지원에 포함되지 않습니다. ( 기사) 그렇다면 Microsoft는 왜 SMR을 추진하냐고요? 2022년 기준으로 보면 Microsoft를 비롯한 Apple, Goole, Meta 등의 미국 테크 기업들은 이미 RE100을 100% 달성한 상태이기 때문입니다. 국내 기업들은 이에 훨씬 못 미치고 있죠. 제조분야에서 그나마 높다고 하는 LG에너지솔루션, 삼성전자, SK하이닉스도 30% 언저리 수준인데 그나마 이 수치도 '재생에너지공급인증서(REC)'라는 증명서를 타 기업들로부터 구매해서 맞춰진 것이라고 합니다. IT 기업인 네이버는 2022년 한국수자원공사와 RE100 달성을 위한 태양광 등 대규모 재생에너지 개발사업에 대한 투자 등 협력을 위한 업무 협약을 체결했고, 엔라이튼이라는 재생에너지 조달파트너로부터 재생에너지 전력을 공급받는다고 밝히기도 했습니다. ( 기사)
* RE100 : 기업이 사용하는 전기의 100%를 2050년까지 재생에너지로 조달하는 것을 목표로 하는 캠페인으로 국제 비영리 환경단체인 'The Climate Group'과 'CDP(Carbon Disclosure Project)'가 함께 시작함
Channel 1, 생성 AI로 구동되는 글로벌 뉴스 네트워크 출범
AI로 운영되는 전문 뉴스채널 ' Channel 1'( 홈페이지)이 출범 소식을 알렸습니다. 공식 출시는 2024년부터라고 하네요. 국내에서도 이미 유명 아나운서(김주하씨 외)를 AI 앵커로 생성해서 밤 시간대의 뉴스 보도에 활용하는 사례( 관련기사)가 있었습니다. 그래서 그저 좀 더 고도화된 기술이 적용된건가 하고 넘어갈 수도 있을 것 같지만, 제가 알기론 'Channel 1'처럼 전체 뉴스의 진행을 AI를 이용해서 하는 사례는 없었던 것 같습니다. 단순히 아나운서만 AI가 가상으로 만드는 것이 아니라 내용(이미지, 영상, 편집, 문구 등)과 영상 제작, 기사에 대한 팩트체크 등 다양한 분야에 AI를 적극적으로 도입할 것으로 생각됩니다. 저는 보이는 AI 아바타 자체보다는 이런 세밀한 분야까지 AI가 침투하고 있다는 측면이 놀랍습니다. 조만간 이런 뉴스 채널의 뒷단에 실제 사람이 있을지 아니면 완전히 AI가 운영하고 있을지 알 수 없는 시대가 올 것 같습니다. |
|
|
사진: 'Channel 1'의 AI 앵커 사진 (출처) |
|
|
Microsoft, 소형 언어모델 Phi-2 출시
휴대전화에서 작동되는 SLM(Small Language Model)들이 이제 조만간 많이 등장할 것 같습니다. 최근에 삼성도, 구글도 이런 기술들을 소개한 바 있는데 역시나 Microsoft도 그 대열에서 빠지지 않았습니다. Phi-2는 2.7B 매개변수로 얼마 전 구글이 발표한 Gemini Nano 2의 3B보다 조금 더 작은 수준입니다. 하지만, 일부 테스트에서는 그 성능을 뛰어 넘는다고 합니다. ( 기사)
|
|
|
프랑스의 대표적인 AI 스타트업인 Mistral AI가 MoE ( Mixture of Experts) 방식을 도입한 모델 Mixtral 8x7B를 오픈소스로 공개했습니다. MoE는 GPT4가 사용하고 있던 방식인데, 모델을 생물, 물리, 수학 등등의 세부 분야 별 전문모델(Expert)로 쪼개서 질문에 따라 이를 연결해서 추론을 처리하는 방식입니다. 8x7B는 8개의 Expert 구성과 총 70억개의 매개변수를 의미하죠. 이렇게 쪼개서 함으로써 효율을 극대화해서 실행비용과 시간을 최소화 했습니다. 그러면서도 32K의 컨텍스트 크기를 지원하고 다양한 벤치마크에서 훨씬 더 큰 모델들보다 더 나은 성능을 달성했다고 하죠. 하지만 저는 아직도 잘 모르겠습니다. 누가 천하통일을 하고 누가 끝까지 살아남을 것인지... AI에서는 영국하면 DeepMind, 프랑스하면 Mistral AI가 떠오를 것 같습니다. 설립 6개월 만에 벌써 20억 달러 기업가치로 추가 투자협의가 진행되고 있다니 대단합니다. 창업 멤버들이 DeepMind와 Meta 출신이니 시작부터 그럴 낌새는 있었지만 말이죠.
참고) 홈페이지, 소개글(MoE) |
|
|
사진: MoE (Mixture of Experts) layer에 대한 설명 (출처) |
|
|
사진: Mixtral 8x7B 모델의 성능 비교 (출처) |
|
|
최근 발표되는 LLM들은 입력 프롬프트의 토큰 수를 엄청나게 크게 확장할 수 있도록 하고 있습니다. 하지만, 이렇게 많은 정보의 입력은 최종적으로 더 나은 아웃풋을 얻을 수 있을지는 몰라도 그만큼 계산 리소스 측면이나 API를 사용하고 정보를 저장하는 측면에서는 바람직하지 않습니다. LLM을 통해 질문을 할 때 프롬프트를 어떻게 주느냐는 아주 중요한 일인데, LLM 자체가 똑똑한데 실무경험이 전혀 없는 신입사원 같기 때문이죠. 그래서 최근에는 Prompt Engineering, Prompt Designer 같은 기술이나 자격들이 등장하고 있기도 합니다.
LLMLingua는 LLM 추론을 더 빠르게 하기 위해 사용자가 입력하는 프롬프트를 앞단에서 한번 압축하는 기술입니다. LLMLingua는 인공지능, 즉 잘 훈련된 소규모 언어모델을 이용해서 사용자 프롬프트에서 중요하지 않은 토큰을 식별하고 제거하는 역할을 하는거죠. 사람한테 익숙한 언어를 기계가 이해하기 쉬운 언어로 바꿔주는 컴파일러가 있듯이 이 또한 LLM이 이해하기 쉬운 것으로 변형해 준다고 이해하면 됩니다. 최대 20까지의 다양한 압축 비율이 적용된 실험에서, 성능은 거의 유지되면서도 응답길이를 줄였고, LLM 생성 프로세스의 대기 시간도 20~30% 감소되었다고 합니다. 압축된 프롬프트는 LLM을 이용해서 거의 원본과 가깝게 복원하는 것도 가능했다고 하네요.
|
|
|
사진: LLMLingua의 작동 원리 설명 (출처) |
|
|
Upscale-A-Video는 저해상도의 영상과 텍스트 프롬프트를 입력으로 해서 고해상도 영상을 생성하는 Diffusion 기반의 비디오 초해상도 모델입니다. 특징적인 부분은 지역 및 글로벌 전략을 모두 사용한다는 것인데 지역적인 부분은 비디오 세그먼트를 나누고 그 속의 일관성을 위해 시간 계층이 있는 U-Net을 이용하여 처리합니다. 글로벌 부분 개선은 사용자 지정 확산 단계에서 반복적인 잠재 전파 모듈을 통해 세그먼트 간 일관성을 향상시키고, 최종적으로 미세 조정된 VAE-Decoder로 깜박이는 아티팩트를 줄여 낮은 수준의 일관성을 향상시킵니다. 결과적으로 이 모델은 비디오 영상의 품질과 충실도 사이의 균형을 맞추며 시각적 일관성, 사실성을 향상시킵니다. 그 전에도 많은 SR (Super Resolution) 모델들이 있었는데 최근 보면 거의가 Diffusion 기반 모델들이 가장 핫하게 부각되고 있는 것 같습니다. 참고) 프로젝트, 논문, 소개영상
* 깃헙 레포지터리가 생성되어 있으나 아직 코드는 공개되지 않았습니다. |
|
|
사진 : Upsacle-A-Video 모델 파이프라인 (출처) |
|
|
인공지능 서비스의 배포와 운영 시 도움이 필요하신가요?
(주)소이넷은 인공지능 서비스를 제공하는 기업들 가운데 서비스 배포와 운영에서 어려움을 겪고 계신 곳에 도움을 드릴 수 있습니다.
혹시 구독자님의 회사는 다음과 같은 어려움을 겪고 계시지 않나요?
- AI 모델을 개발하고 학습 후 서비스를 위한 성능(Accuracy)은 달성했는데, 정작 최적화 엔지니어가 없어서 어플리케이션, 서비스로의 배포를 위한 실행최적화를 못하고 있어요!
- AI 서비스를 이미 제공하고 있지만, 비싼 클라우드 GPU 서버 인스턴스 사용료가 부담이 되네요. 흠... 경비를 절감할 수 있는 방안이 없을까?
- 서비스에 적합한 공개 SOTA 모델이 있지만 그대로 가져다 쓰기에는 우리 쪽 어플리케이션에 접목하기도 어렵고 운영 비용도 많이 들 것 같은데 어쩌지?
- 서비스에 사용되는 AI 모델을 통합적으로 관리, 배포, 모니터링을 하고 싶은데 그렇다고 비싸고 너무 복잡한 솔루션을 쓸 수는 없고 어쩌지?
- 비즈니스 도메인 기업이긴 한데 자체로 인공지능을 적용하기에는 기술적인 난이도도 있고... 어디 함께 공동 솔루션을 개발할 곳은 없을까?
그렇다면 언제든 아래 연락처로 문의 주세요. 함께 해결책을 고민해 드리겠습니다.
|
|
|
오늘의 뉴스레터는 여기까지 구독자님, 다음 번에도 재미나고 흥미로운 소식을 가지고
다시 찾아뵙겠습니다. |
|
|
구독해 주시면 좋은 소식, 정보로 보답하겠습니다. |
|
|
주식회사 소이넷 sales@soynet.io 경기 성남시 분당구 성남대로331번길 8 (킨스타워) 1503호
대표전화 : 031-8039-5377
|
|
|
|
|