지난 한글날을 돌아봅니다. 안녕하세요, 구독자님.
이번 한 주는 어떻게 보내고 계신가요?
금주 월요일 10월 9일은 한글날이었습니다. 다양한 한글 관련 행사가 열렸죠. 아쉽게도 다른 일정이 있어서 행사들에 직접 참가하진 못했네요. 저는 개인적으로 '한글'을 세계 최고의 발명품 가운데 하나로 생각합니다. 수천, 수만년에 걸쳐 자연적으로 진화해 온 문자들과는 달리, 만들고 반포한 주체와 날짜, 기록이 확실하다는 점에서 가히 독보적이라고 할 수 있죠. 세종대왕과 당시의 한글 연구 학자들 덕분에 지금도 글을 읽고 쓰고 서로 소통하며 이해하고 있습니다. 물론 당시에도 한자라는 문자가 있었으니 불가능하진 않았겠죠. 하지만, 글을 배울 수 있었던 계층에만 허용되는 것이었으니 진정한 모든이를 위한 문자는 아니었다고 생각합니다.
오늘은 이미 지났지만 한글날과 관련된 재미난 내용들을 몇 가지 찾아서 복습하듯 한번 둘러보고 그 외에는 늘 그렇듯 새로 나온 뉴스와 발표된 기술들을 소개해 드리겠습니다. |
|
|
한글날의 유래
한글날은 조선 세종 때의 우리 고유의 글자인 '훈민정음'(정확히는 '해례본')의 반포를 기념하는 날입니다. 그런데 보통 기념일이라고 하면 언제인지가 확실하기 마련인데 훈민정음의 경우, 창제일과 기록본(책)으로 반포한 일자가 달랐던 터라 날짜 자체도 처음과는 달라졌다고 합니다. 즉, 1926년 조선어학회에서는 세종실록 25년(1443년)의 기록을 근거로 10월 29일(음력 9월)로 정했는데, 그 이후 1940년 7월에 훈민정음 해례본(원본)이 발견되었는데 거기에 세종 28년(1446년) 음력 9월 상순이라고 되어 있어 9월 상순의 마지막날을 서양의 그레고리력으로 환산하여 10월 9일로 정하게 되었다고 합니다. 즉, 문자의 창제는 세종25년(1443년), 발표는 세종28년(1446년)인 셈인거죠.
기념일의 이름이 '한글날'로 된 것은 언제인가요?
처음 반포 때의 문자 이름은 ' 훈민정음'이었고 현재는 ' 한글'이라는 이름으로 쓰고 있죠. 기념일의 이름도 제정 당시인 1920년대에는 한글이 '가갸글'로 불리고 있던터라 처음엔 '가갸날'이었다고 합니다. 그러다 1928년에 그전까지의 주시경 선생의 제안이었던 ' 한글날'로 명칭이 변경되어 지금까지 이어지고 있다고 합니다. ( 링크)
한글의 탄생이 특별한건가요?
한글이 다른 문자들과 가장 차별화되는 부분은 탄생 과정입니다. 일반적으로 다양한 언어에서 사용하는 문자들은 수백수천년의 역사를 통해 자연적으로 진화를 해 온 결과물인데 한글, 더 정확히는 '훈민정음'의 경우에는 특정한 시기(1443년, 1446년)에 특정한 사람들(세종대왕과 집현전 학사들)에 의해 만들어진 것이 기록으로 남아 있습니다. 이런 사례가 없기 때문에 해외의 언어학자들도 높이 평가하고 있는 실정이죠. 참고로 '훈민정음 해례본'은 1997년 유네스코 세계기록유산으로 지정되었습니다.
한글하면 세종대왕이 떠오르는데...
그렇죠. 한글하면 세종대왕이 자연스럽게 떠 오르죠. 훈민정음의 창제/반포와 관련해서 현재 가장 많이 받아들여지고 있는 정설은 세종대왕과 집현전 학사들이 함께 만들었다는 것입니다. 우리 대부분은 그렇게 교육 받아왔고 많은 책들에도 그렇게 되어 있죠.
하지만, 정설에 반하는 의견들도 일부 있습니다. 대표적인 것으로는 세종대왕께서 혼자 훈민정음을 창제하시고 이후에 이를 집현전 학사들에게 연구하게 했다는 설( 링크)과 훈민정음은 승려 신미가 만들었다는 설(링크) 등이죠.
전자에 대해서는, 세종대왕 한분이 이 대단한 일들을 혼자 하셨다는 것이 개인적으로 믿기지 않고, 후자에 대해서는 역사적으로 반대 근거들이 많이 나와 있는 상태입니다. 승려 신미 창제설을 영화화한 것이 송강호, 박해일 주연의 영화 ' 나랏말싸미'입니다. 개봉 당 시에도 역사왜곡이라는 비판을 받기도 했었고 ( 링크) 승려 신미는 훈민정음 반포 후 보급에 이바지한 사람이라는 의견도 있습니다. ( 기사)
영화 외에 한글 창제와 관련되어 나왔던 드라마도 있었습니다. 2011년에 나왔던 한석규 주연의 ' 뿌리깊은 나무'가 그것인데요, 드라마 내용의 핵심은 훈민정음 창제를 둘러싼 반대세력과의 갈등을 다루고 있습니다.
|
|
|
훈민정음과 현재 사용하는 한글간의 차이가 있나요?
간단히는 글자수의 차이가 있습니다. 반포 당시 훈민정음은 총 28자(모음 11, 자음 17)였고 현재 우리가 사용하는 한글은 총 24자(모음 10, 자음 14)입니다. 즉, 현재는 사용하지 않는 문자가 있다는 것인데 그것은 바로 아래아(ㆍ), 반치음(ㅿ), 옛이응(ㆁ), 여린히읗(ㆆ) 입니다.
1933년 '한글맞춤법통일안'이 제정될 때 위의 4글자가 사라졌는데 당시 자주 사용되지 않거나 비슷한 발음의 다른 문자와 혼재해서 사용되는 경우들이 있었기 때문이라고 합니다. 지금이야 현재의 한글이 익숙하긴 하지만 기존의 훈민정음 28자가 다 있었다면 표현할 수 있는 소리가 훨씬 확대되었을 것이라는 측면에서는 약간은 아쉬움이 있습니다. 대신 많이 복잡해졌을 것 같긴 합니다. 어쩌면 그 또한 사용하면서 익숙해질 수는 있었을테지만...
전 세계에 문자가 몇 가지나 되나요?
언어는 지속적으로 소멸하거나 새로 만들어지도 해서 정확한 통계를 할 수가 없다고 합니다. 그래서 대략 수천(6~7천개 수준)개의 언어와 수백개의 문자 체계가 존재한다고 추정된다고 합니다. 성경을 본토어로 제공할 목적으로 언어 연구를 하고 있는 SIL(Summer Institute of Lingustics)라는 곳에서 운영하는 Ethnologue에 따르면 전세계에는 7000 여개의 생활 언어가 있다고 표현되어 있고 이 가운데 멸종위기에 처한 것이 약 40% 가량이 된다고 합니다. ( 링크) 다만, 이 수치를 이해할 때는 약간의 자체 보정이 필요할 것 같습니다. 예를 들어 한국(South Korea)을 체크했더니 3개의 활성 언어가 있는데 '한국어', '제주어', '한국어 수화'라고 되어 있었습니다. 학계에 속하지 않은 보통 사람들은 한국어와 제주어를 서로 다른 언어로 생각하지 않고 수화를 별도 언어로 포함시키지 않고 있을테니까요.
한글이 그렇게 훌륭한 문자인가요?
주변 사람들에게 과연 어떤 점이 훌륭한가를 물어보면 제대로 대답하는 사람이 많지 않았습니다. 대부분은 방송이나 책 혹은 학교 교육에서 그냥 훌륭하다라고 배워왔기에 매일매일 쓰면서도 구체적인 잇점을 모르고 살지 않았나 싶습니다.
단순하게 몇 가지만 다른 문자들과 비교해서 적어보겠습니다. ( 참조 링크)
- 표현할 수 있는 소리의 수가 많다.
한글은 기본 모음 10개와 이를 합성한 복모음을 이용해서 만개 이상의 소리를 표현할 수 있는데 반해 알파펫, 일본어, 한자는 수백개 수준의 소리를 표현할 수 있다고 합니다. (훈민정음 28자를 이용하면 399억개 가의 소리를 표현할 수 있다고 합니다.)
- 과학적인 글자다.
글자의 원리와 사용방법이 명확합니다. 발음기관의 모양을 본떠 만들었기 때문에 글자 모양만으로 어떤 소리가 날지를 짐작할 수가 있고 획을 더함으로써 소리가 바뀌는 방식이 체계적이고 일관성이 있습니다.
- 글자, 소리가 1:1로 대응된다.
한 부호가 하나의 소리를, 그것도 어떤 상황에서도 같은 소리를 냅니다. 영어나 다른 언어를 생각해 보면 이 때문에 가지는 장점이 아주 많은 것 같습니다.
- 배우기 쉽다.
이게 가장 중요한 부분 같습니다. 유튜브에서 외국인들이 한글 사용 방법을 몇 시간만에 터득하는 사례를 간간히 볼 수 있습니다. 언어인 한국어가 외국인이 배우기 어려운 언어 최상위에 속한다는 점은 한편으론 아이러니하죠...
해외에서 한글을 문자로 사용하고 있다고요?
네. 그렇습니다. 국가 혹은 종족 별로 언어는 있지만 이를 글로 표현할 수 없는 곳들이 아직도 많이 있습니다. 이런 곳들은 민족의 전통을 구전으로 혹은 자신들의 언어를 제대로 표현할 수 없는 타국의 문자를 이용하고 있죠. (의외로 발음을 제대로 기록할 수 있는 문자는 극소수에 해당합니다)
앞서 언급한 바와 같이 연구에 따르면 전 세계에는 7000여 언어가 있는데 그 가운데 약 절반 가량이 소멸될 가능성이 있다고 합니다. 그런 고유문자를 가지지 못한 국가나 민족들에게 자신들의 말을 표현할 수 있는 수단으로 한글을 보급하는 사업을 국내 한글 관련 기관과 국제기구 UN이 함께 진행하고 있습니다. 세계의 주요 언어 451개 중에 한글로 정확하게 표현할 수 있는 것이 29%에 해당한다고 하며 현재는 사용하지 않는 훈민정음의 옛 문자까지 사용하면 절반을 넘는 56%에 이른다고 합니다. (링크)
현재 한글을 문자로 사용하고 있는 곳으로는 인도네시아의 찌아찌아족, 솔로몬제도의 과달카날주와 말라카이족 등이 있습니다. 이 가운데 찌아찌아족은 91,000명 가량이 되는 인도네시아 내 소수 종족으로 훈민정음학회에서 한글을 부족의 문자로 도입키로 하고 2010년부터 교사를 파견했습니다. 그 후 공식적인 지원이 끊긴 이후에도 민간의 도움들이 모여 학교를 세우고 현재는 초등학교에선 한글을, 중고교에서는 한국어를 가르치는 수준까지 되었다고 합니다. 이곳에서 쓰는 한글은 현대 한글에서는 사용하지 않는 훈민정음 상의 순경음 비읍(ㅸ, 훈민정음 기본 자모의 연서방식 이용)이 추가적으로 사용되고 있다는 것이 다르다고 합니다. (기사)
추가로 볼만한 자료가 있으면 알려주세요.
- 기사) 위대한 문자 '한글'…한글날 추천 영상 3편 (경기신문, 2022.10)
- 기사) "사라질 3000여 언어도 표기…한글, 세계 공용문자로" (서울경제, 2023.7)
- 사이트) 한국민족문화대백과 한글 (링크)
- 기획 · 동네에서 만나는 인문학, 우리가 잘 몰랐던 한글 이야기 (서울시, 2017.10)
- 기사) [이기철의 노답 인터뷰] “훈민정음, 신미대사가 만들었다고?… 창제가 아니라 보급에 이바지했죠” (서울신문, 2019.8)
- 기사) 거침 없이 한국말 하는 아이들... 한글 도입 14년, 찌아찌아족은 지금 (조선일보, 2023.10)
- 영상) 한글의 위대함, 그러나 문해력 저하+영상을 통해 지식 습득하는 요즘 시대... 우려되는 점은 (tvN, 230831)
- 블로그) 한글의 우수성은 입증됐다. 과학성, 훈민정음, 원방각, 오행의원리, 천지인, 오징어게임과 한글 (LAOS Times, 2023.2)
- 영상)인류 문명의 과거, 그리고 현재 #국립세계문자박물관 (인천광역시, 2023.8)
올해 새로 개원한 문자 전문 박물관입니다. 한번쯤 가볼만 할 것 같아서 링크를 걸어봅니다.
- 사이트) 21세기 세종대왕 프로젝트 (링크)
- 훈민정음 28자 중에서 4글자가 없어진 이유? (세종학당재단, 2017.7)
- '한글 맞춤법'은 어떻게 탄생했나 (네이버코드, 2022.9)
|
|
|
금주에 있었던 소이넷의 소식은 다음과 같습니다.
- OPENGATE 행사 진행
10/12 (목) 구로 지타워 컨벤션홀에서 열린 OPENGATE 행사에서 전시 부스를 운영했습니다. 소이넷은 글로벌창업사관학교(글창사) 1기 졸업 기업으로 이후 졸업기수의 기업, 서울청년창업사관학교(서울청창사) 졸업기업들이 함께 참여했습니다. Microsoft와 NVIDIA와 그리고 글로벌 AC(Founder Institute)의 키노트 강연과 오후 글로벌 VC의 스타트업 글로벌 진출 전략, IPO 성공 선배 기업들의 출구전략 공유, 그리고 마지막으로 글창사, 서울청창사 13기 우수 기업의 PR이 있었습니다.
|
|
|
최근 있었던 새로운 소식을 알려 드립니다.
- 중국 AI 효율 높인 '멤리스터칩' 개발
미국이 중국의 AI 역량을 견제하기 위해 반도체 제재를 하고 있는 것은 이미 잘 알려진 사실입니다. 그 때문에 중국도 다양한 방식의 타개책을 모색하고 있는데 그 가운데 하나로 칭화대 연구진이 멤리스터 반도체(memristor chip)에 대한 연구 결과를 발표했습니다. 핵심은 메모리와 코어의 레지스터 간의 데이터 이동을 위한 오버헤드를 없애고 전원공급이 없는 상태에서도 이전 상태를 기억할 수 있도록 한 것이라고 합니다. HBM과 어떤 측면에선 비슷한 면이 있네요. (기사: AI타임스, 2023.10)
- OpenAI AI서비스 구축 비용, 시간 절감을 위한 최신 업데이트 계획
대규모 언어모델을 기반으로 하거나 이외에도 연산량이 많은 비전, 오디오 등등의 다양한 AI 서비스가 출시되고 있습니다. 그런데 이런 서비스의 뒷면에는 과다한 인프라 비용이 숨어있죠. OpenAI도 이런 문제를 해결하기 위해 Stateful API를 통해 Q&A 대화 내역을 기억하여 애플리케이션을 개발할 수 있도록 한다거나 언어 외에 이미지나 영상을 지원하는 Vision API 기능을 제공하는 등 다양한 업데이트 계획을 발표했습니다. (기사: REUTERS, 2023.10)
- 2023 KES (한국전자전) 행사 소식
한국전자전이 10/24(화)~10/27(금)까지 총 나흘간 코엑스 A, B홀에서 진행됩니다. 저희도 부스 참가를 하니 오시면 한번씩 들러 주시기 바랍니다. (T561부스) 참관신청은 이곳에서 10/22까지 온라인으로 진행하시거나 아래 첨부된 이미지를 출력해서 오시면 무료 입장이 가능합니다.
|
|
|
Q-Diffusion: Quantizing Diffusion Models
|
|
|
이미지 생성 등에 사용되는 확산(Diffusion) 모델의 경우, 실행(추론) 속도가 느리고 메모리를 많이 필요로 하며 많은 연산이 필요합니다. 그러다보니 저사양의 장비에서 동작시키는데는 무리가 있었죠. 일반적으로 비전 쪽에서 성능을 약간 희생하면서 추론속도를 높이기 위해 많이 사용되는 PTQ(Post Quantization)은 다중 시간 단계를 처리해야 하는 확산모델 쪽에 적용하는 것은 몇 가지 문제가 있었습니다.
Q-Diffusion 모델은 확산 모델의 다중 시간 단계 추론 시 누적된 양자화 오류와 다양한 활성화 분포, 그리고 교정을 위한 데이터 문제를 해결하면서 높은 생성품질을 유지한 채로 4bit 까지 양자화를 해 내고 있습니다. 이를 위해 시간 단계 인식 교정 데이터 샘플링 기법과 단축키 분할 양자화 방식을 이용하고 있습니다.
|
|
|
사진: 기존의 PTQ와의 방식 비교 (상), 적용된 단축키 분할 양자화 방식 (하) (출처) |
|
|
LLaVA : Large Language and Vision Assistant
|
|
|
LLaVA는 간단히 설명하면 범용적인 시각 및 언어 이해를 위해 비전 인코더와 Vicuna를 결합한 대규모 멀티 모달 모델입니다. 최근 GPT-4가 Vision을 지원하는 기능을 출시하면서 멀티모달로 범위를 확대하고 있는데 LLaVA 또한 시각, 언어이해를 함께 결합했고 최근 발표된 1.5 버전에선 11개 벤치마크에서 SOTA를 달성했다고 합니다. 소개된 프로젝트 사이트 상의 샘플 결과물에 따르면 시각적 추론도 GPT-4나 BLIP-2 등에 비해서도 훨씬 더 상세하게 답변하는 것을 볼 수 있습니다. 물론 체리피킹일수도 있겠지만 말이죠... 저도 해당 모델을 어린이가 그린 그림을 이용해서 테스트를 해 봤는데 생각보다 잘 묘사를 해 주더군요.
|
|
|
사진:
broad range of 11 tasks (Top), with high training sample efficiency (Left) and simple mod- ifications to LLaVA (Right)
(출처) |
|
|
사진: 모델 네트워크 아키텍처),, 테스트 결과물 (하) (출처) |
|
|
TheoTron은 AI 모델이 아니라 Mikolaj Czerkawski라는 분이 만든 데모 어플리케이션입니다. Gradio를 이용해서 만들어졌다 보니 gradio 트위터 공식 채널에서 소개를 해서 알게 되었죠. 이 데모 어플리케이션은 Face Detection, Segment Anything, ControlNet Inpainting을 결합해서 만들어져 있습니다.
업로드한 사진(혹은 웹캠)과 표현하고자 하는 내용을 담은 텍스트 프롬프트가 입력되면 상황에 맞는 새로운 이미지를 생성해 줍니다. 좋은 점은 얼굴과 포즈를 그대로 보존해 준다는 것입니다. 아주 세부적인 부분에서는 왜곡도 있긴 하지만 그래도 나름 재미난 연작 이미지를 만들 때 써먹을만한 것 같아서 소개 드립니다.
|
|
|
사진: 입력(좌)와 프롬프트 별 생성된 이미지들 사례 (출처) |
|
|
인공지능 서비스의 배포와 운영 시 도움이 필요하신가요?
(주)소이넷은 인공지능 서비스를 제공하는 기업들 가운데 서비스 배포와 운영에서 어려움을 겪고 계신 곳에 도움을 드릴 수 있습니다.
혹시 구독자님의 회사는 다음과 같은 어려움을 겪고 계시지 않나요?
- AI 모델을 개발하고 학습 후 서비스를 위한 성능(Accuracy)은 달성했는데, 정작 최적화 엔지니어가 없어서 어플리케이션, 서비스로의 배포를 위한 실행최적화를 못하고 있어요!
- AI 서비스를 이미 제공하고 있지만, 비싼 클라우드 GPU 서버 인스턴스 사용료가 부담이 되네요. 흠... 경비를 절감할 수 있는 방안이 없을까?
- 서비스에 적합한 공개 SOTA 모델이 있지만 그대로 가져다 쓰기에는 우리 쪽 어플리케이션에 접목하기도 어렵고 운영 비용도 많이 들 것 같은데 어쩌지?
- 서비스에 사용되는 AI 모델을 통합적으로 관리, 배포, 모니터링을 하고 싶은데 그렇다고 비싸고 너무 복잡한 솔루션을 쓸 수는 없고 어쩌지?
- 비즈니스 도메인 기업이긴 한데 자체로 인공지능을 적용하기에는 기술적인 난이도도 있고... 어디 함께 공동 솔루션을 개발할 곳은 없을까?
그렇다면 언제든 아래 연락처로 문의 주세요. 함께 해결책을 고민해 드리겠습니다.
|
|
|
오늘의 뉴스레터는 여기까지 구독자님, 좋은 소식과 재미난 정보를 가지고
다시 찾아뵙겠습니다. |
|
|
구독해 주시면 좋은 소식, 정보로 보답하겠습니다. |
|
|
주식회사 소이넷 sales@soynet.io 경기 성남시 분당구 성남대로331번길 8 (킨스타워) 1503호
대표전화 : 031-8039-5377
|
|
|
|
|