FILTERS
 AI
 Speech
 Vision
 Graphics
 Reinforcement Learning
 AI System
 NLP
 Understanding
 Dialogue
 Translation
 Search
 Data
 Applied AI
 Curation
 Anomaly Detection
 Sequence Modeling
 XAI
 Financial AI
 Investment Strategy
 Market Understanding
 Investor Understanding
 MLOps

Quantization – SqueezeLLM

Quantization 이해를 위한 선행지식을 설명하고 논문 사례로 SqueezeLLM을 소개합니다.

뉴럴 오디오 코덱과 코덱 기반 언어모델

최신 오디오 생성 AI의 방법을 소개합니다. 오디오를 이산표현으로 변환한 후 언어모델을 활용하여 다양한 오디오를 생성합니다.

비디오생성 AI: 이미지에서 비디오로

AI를 활용한 비디오생성 모델의 원리와 기술 동향을 소개합니다.

생성형 모델을 활용한 Cross-domain Zero-shot 추천 시스템 개발기

NCSOFT VARCO 모델을 활용하여 다양한 도메인의 추천에 적용가능한 생성형 추천 모델을 제작했던 경험을 공유합니다.

검색 패러다임의 변천사

Sparse에서 Dense을 거쳐 Learned Sparse Retrieval까지 검색 패러다임의 변천사를 소개합니다.

MMORPG 시뮬레이터 개발부터 서비스 배포까지 3

학습된 AI를 게임에 서비스로 선보이기 위해 어떤 노력을 했는지 설명합니다.

MMORPG에서 유저와 함께 플레이하는 AI 용병 만들기

"리니지 리마스터: 잊혀진 섬"의 AI용병 시스템에 대한 연구 경험을 소개합니다.

문장 부호 복원을 통한 구조 이해 능력의 비지도 향상

선형적인 단어 예측이 언어모델 사전 학습에 최선일까? 문장부호 복원을 통한 언어 구조 학습을 제시한다.

VARCO MT 도장깨기 - WMT23 Terminology Shared Task 편

NCSOFT의 VARCO MT가 WMT23 Terminology Shared Task에 참가했던 경험을 공유합니다.

Texture Copilot: 3D Texturing을 돕는 AI Copilot

3D Texturing을 돕는 Texture Copilot의 R&D 과정과 Alpha 버전 사내 테스트 결과에 대해 소개합니다.

MMORPG 시뮬레이터 개발부터 서비스 배포까지 2

‘효율화’ 관점에서 가장 뜻 깊게 생각하는 개선점 2가지를 소개합니다.

초거대 언어 모델의 수업시대 2부 - 언어 모델은 어떻게 추론하는가

초거대 언어모델을 활용한 다양한 추론 방법에 대한 연구에 대해서 알아봅니다.

NeRF를 게임 제작에서 이용할 수 있을까?

NeRF 기술을 게임 제작에 이용하는데 발생하는 여러 문제점들과 이를 해결하는 기술들을 소개해드립니다 (smile)

널려있는 자막에서 보물👑 캐기

Ted 자막을 예로 언어적 특성을 고려하여 전사 텍스트 데이터로 양질의 병렬데이터를 생성하는 파이프라인 TATT를 소개합니다.

인공지능의 사고: 복잡한 추론으로 나아가는 길

거대언어모델 프롬프팅(Prompting)을 활용해 추론 문제를 해결하는 방법에 대해 알아봅니다.

검색의 중심에서 요약을 외치다 2

사용자 질의어 기반 다중문서요약의 관련 연구, 연구 동향과 대표적인 방법론에 대한 논문 각 1편씩 소개드립니다.

NeRF로 실감나는 3D 모델 만들기

최신 딥러닝 기술(NeRF)을 활용한 3D 모델링 기술을 소개하고 실제 사진 촬영을 통해 3D Object/Scene을 모델링하는...

언어모델은 금융에서 어떤 일을 할 수 있나요? ML-ESG SharedTask 이야기

ESG에 자연어처리가 어떻게 활용될 수 있는지, 시장이해 AI팀의 ML-ESG SharedTask 여정을 통해 보여드립니다.

공항기상정보문 생성

공항기상정보가 무엇인지 소개하고, AI 기술로 이를 자동화하는 과정을 소개합니다.

초거대 언어 모델의 수업시대 1부 - 언어 모델은 무엇으로 배우는가?

생성형 AI를 실현하고 고도화하기 위해서 언어 데이터의 관점에서 살펴 봅니다. 이번 1부에서는 한국어 자연어처리 분야에서 빼놓을 ...

Cross Entropy, 최선인가요?: 딥러닝을 위한 여러 손실 함수들 2

NLP 분야에서 주로 사용하는 Cross Entropy의 한계점을 극복하기 위해 어떤 손실 함수들이 제안 되었고, 이들이 어떤 효...

모션캡처 데이터 후처리 자동화 기술을 통해 애니메이션 제작 시간 단축하기

광학식 모션캡처 데이터 후처리 과정을 AI 기술로 자동화하여 작업 속도를 단축한 프로젝트를 소개합니다.

기계가 감정을 인식한다고? 풉…

음성과 텍스트를 이용한 감정인식 연구를 소개합니다.

이름표를 붙여 네 가슴에

웹브라우저에서 구동할 수 있고, 한 번의 발화만으로도 학습할 수 있는 고속/경량의 호출어 인식 모델을 소개합니다.

내가 그의 이름을 불러주기 전에는 그는 다만 하나의 기계에 지나지 않았다.

하나의 모델로 다양한 이름에 반응하는 호출어 인식 기술 연구 경험을 공유합니다.

검색의 중심에서 요약을 외치다 1

텍스트 요약(Text Summarization)에 대한 설명과 어떤 유형으로 요약하는지 모델과 함께 소개합니다.

데이터 품질 향상을 위한 가명정보 이용 방법과 전문적인 지침서

생성AI의 시대, 데이터 품질 향상을 위해 가명정보 어떻게 현명하게 이용할 수 있을지 소개드립니다.

LangChain에 대하여

Langchain을 통해 LLM(Large Language Model)을 이용한 애플리케이션을 더 쉽게 만듭니다.

Cross Entropy, 최선인가요?: 딥러닝을 위한 여러 손실 함수들 1

Vision 분야에서 발표된, 특정 조건 하에서 Cross Entropy Loss보다 더 좋은 효과를 보이는 손실 함수를 소개합니다.

TL 캐릭터 생성: 내 얼굴 사진으로 게임 캐릭터 만들기

인물 사진으로 게임 캐릭터 얼굴을 자동으로 커스터마이징하는 기능을 만들기까지 기술적 내용을 소개합니다.

현실적인 가상 인물 제작을 위한 4D Scan 파이프라인 소개 2

얼굴 움직임을 캡처하기 위한 4D Scan 처리 과정에 관해 소개합니다.

현실적인 가상 인물 제작을 위한 4D Scan 파이프라인 소개 1

게임에서 사실적인 사람 얼굴 표현을 위해 발전시켜 온 두 가지 기술을 소개합니다.

프롬프트로부터 음악을 만들어내는 AI 생성 모델(prompt-based Music Generation)

Prompt 기반의 음악 생성 모델에 대한 소개와 향후 발전 가능성에 대해서 설명합니다.

강화학습으로 Game을 위한 PVP AI 만들기

Blade and Soul과 리니지 리마스터의 PVP AI 콘텐츠에 강화학습을 적용했던 경험담을 공유합니다.

MMORPG 시뮬레이터 개발부터 서비스 배포까지 1

리니지 리마스터에서 AI 학습을 위한 시뮬레이터와 서비스 개발 과정에 관해 설명합니다.

메타러닝 기반의 초기 사용자 선호도 예측 모델 연구

정보가 부족한 초기 사용자의 아이템 선호도를 예측하기 위한 메타러닝 기반의 방법을 제안하는 논문입니다.

Metric learning을 활용한 추천 시스템에서의 클릭 실수 반영 연구

이 글에서는 세션 기반의 추천에서 잘못된 클릭 시그널들을 고려하는 방법에 대해 연구한 내용을 소개합니다.

거대언어모델의 프롬프트 데이터 3

대용량 사이즈 접근법에서 벗어나 언어모델이 사람의 의도와 가까워질 수 있게 도와주는 프롬프트 데이터셋을 소개합니다.

Large Language Model을 밀어서 잠금해제: Parameter-Efficient Fine-Tuning 2

Parameter-Efficient Fine-Tuning (PEFT) 방법들

Large Language Model을 밀어서 잠금해제: Parameter-Efficient Fine-Tuning 1

생각보다는 연속적인 기술의 발전으로 등장한 Large Language Model (LLM)

거대언어모델의 프롬프트 데이터 2

대용량 사이즈 접근법에서 벗어나 언어모델이 사람의 의도와 가까워질 수 있게 도와주는 프롬프트 데이터셋을 소개합니다.

WSDM2023 - 언어모델 성별 편향 개선 방법

언어모델 내 성별 편향을 제거하기 위한 방법론을 소개하는 논문입니다.

거대언어모델의 프롬프트 데이터 1

대용량 사이즈 접근법에서 벗어나 언어모델이 사람의 의도와 가까워질 수 있게 도와주는 프롬프트 데이터셋을 소개합니다.

긴 글을 위한 트랜스포머 모델 - Longformer와 BigBird (2편)

Longformer, BigBird 모델이 보인 성능과 이들의 유사/파생 모델에 대해서도 간단히 알아봅니다.

ChatGPT와 대화 모델의 미래: 발전과 고민 2

이 글에서는 ChatGPT의 발전과 그에 따른 대화 모델의 미래와 고민에 대해 기술합니다.

ChatGPT와 대화 모델의 미래: 발전과 고민 1

이 글에서는 ChatGPT의 발전과 그에 따른 대화 모델의 미래와 고민에 대해 기술합니다.

텍스트 생성 성능을 높이기 위한 Self-distillation 기술

이 글에서는 Self-distillation이라는 기술의 목적, 방향성과 주요 방법론을 소개합니다.

긴 글을 위한 트랜스포머 모델 - Longformer와 BigBird (1편)

긴 문서를 처리하기 위해 고안된 두 모델 Longformer, BigBird의 원리에 대해서 이야기합니다.

ㄱㄱㄱ: 견고함으로 가는 길 2

인간의 개입 없이 수학적인 접근으로 피처 간 의존을 줄여 인공지능의 robustness를 개선하는 방법론을 소개한다.

ㄱㄱㄱ: 견고함으로 가는 길 1

인간의 개입 없이 robust한 학습 방법론을 소개하기 전, 관련 개념, 연구, 및 NLI 모델 구조 등을 쉽게 설명한다.