About Past Issues Editorial Board

KAIST
BREAKTHROUGHS

Research Webzine of the KAIST College of Engineering since 2014

Spring 2026 Vol. 26
Electronics

샘플 가중치 조정을 통한 클래스 증분 학습의 공정성 향상

February 19, 2026   hit 354

KAIST 데이터 지능 연구팀은 클래스 증분 학습 과정에서 불공정한 망각 문제가 발생하지 않도록 샘플의 학습 가중치를 계산함으로써, 정확도와 공정성을 동시에 고려하는 새로운 학습 프레임워크인 FSW를 제안했다.


 

KAIST 데이터 지능 연구실(지도교수: 황의종) 소속 박재영, 김민수 박사과정 학생은 불공정한 망각이 발생하는 클래스 증분 학습 환경에서도 정확하고 공정한 인공지능 모델을 학습할 수 있는 새로운 학습 프레임워크를 개발하였다. 제안된 기법은 클래스 증분 학습 과정에서 발생하는 성능 저하를 완화하고 특정 집단에 불리해지는 현상을 효과적으로 줄이는 데 초점을 맞추고 있다.

 

연속 학습은 모델이 한 번에 모든 데이터를 학습하는 대신 새 데이터가 지속적으로 추가되는 학습 방식이다. 이 중에서도 클래스 증분 학습은 매 학습 단계마다 새로운 클래스가 추가되는 상황을 다룬다. 예를 들어, 스마트폰의 사진 인식 시스템은 시간이 지남에 따라 새로운 사람을 점진적으로 학습한다. 초기에는 가족 구성원을 인식하다가, 이후 업데이트를 통해 친구들을 인식하도록 확장하는 경우를 생각할 수 있다. 이 과정에서 모델은 새로운 클래스를 학습하는 동시에 기존에 학습한 클래스에 대한 성능을 유지해야 한다.

 

하지만 기존 연구들은 주로 전체 정확도를 유지하는 데 초점을 맞춰 왔으며, 학습 과정에서 공정성 문제가 어떻게 나타나는지에 대해서는 상대적으로 덜 주목받아 왔다. 앞선 예로 돌아가 보면, 시스템이 공정성을 고려하지 않은 기존 기법을 통해 업데이트될 경우, 전체 인식 성능은 높게 유지되더라도 일부 기존 인물에 대해서는 인식 성능이 더 저하될 수 있다.

 

연구진은 클래스 증분 학습 과정에서 발생하는 망각 현상이 모든 집단에 동일하게 나타나지 않는다는 점에 주목했다. 분석 결과, 새로 학습되는 데이터가 기존 집단의 학습 방향과 충돌할 경우, 특정 클래스나 민감한 속성을 가진 집단에서 예측 성능이 더 크게 저하될 수 있음이 확인되었다. 연구진은 이를 “불공정한 망각”으로 정의했다.

 

 

그림 1  (a) 클래스 증분 학습을 설명하기 위한 예시 데이터셋. (b) 새로운 클래스(Class 2)를 학습하면 특정 이전 클래스(Class 1)에 대해서만 불공정한 망각이 발생함. (c) 새로운 클래스의 그래디언트(g2)가 이전 클래스의 그래디언트(g1)와 충돌함. 샘플 가중치를 활용한 공정한 클래스 증분 학습(FSW)은 이러한 충돌을 줄이도록 g2를 조절함. (d) 그 결과 새로운 클래스의 정확도를 크게 희생하지 않으면서 불공정한 망각이 완화됨.

 

 

연구진은 클래스 증분 학습 과정에서 발생하는 불공정한 망각을 완화하기 위해 샘플의 학습 가중치를 조정하여 정확도와 공정성을 함께 고려하는 새로운 학습 프레임워크인 샘플 가중치를 활용한 공정한 클래스 증분 학습(FSW)을 제안했다. 해당 프레임워크는 학습 과정에서 각 샘플이 모델의 정확도와 공정성에 미치는 영향을 함께 고려해 학습 가중치를 계산한다. 이를 위해 연구진은 선형 계획법을 활용하여, 특정 집단에 불리한 영향을 줄 가능성이 있는 샘플에는 낮은 가중치를 부여하도록 학습 과정을 조정했다. 이러한 방식으로 모델은 새로운 클래스를 학습하면서도 기존 집단에 불리한 방향으로 학습이 진행되는 것을 방지할 수 있다.

 

 

그림 2  FSW는 다양한 데이터셋에서 기존 클래스 증분 학습 방법 대비 정확도와 공정성 간의 균형을 효과적으로 개선한다.

 

 

연구진은 이미지, 자연어, 표 형식의 다양한 도메인의 데이터셋을 포함한 실험을 통해 FSW가 특정 문제나 데이터 유형에 국한되지 않음을 검증했다. 또한 FSW가 기존 클래스 증분 학습 기법들보다 공정성 지표를 유의미하게 개선하면서도 전체 예측 정확도는 유사한 수준으로 유지하는 성과를 보였다.

 

이번 연구는 클래스 증분 학습에서 공정성이 학습 과정 전반에서 함께 고려되어야 할 핵심 요소임을 보여준다. 제안된 프레임워크는 연속 학습 환경에서 신뢰할 수 있는 인공지능 시스템을 구축하는 데 중요한 기반 기술로 활용될 것으로 기대된다.

 

해당 연구는 데이터 과학 및 데이터 마이닝 분야의 최고권위 학회인 ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2026에서 "Fair Class-Incremental Learning using Sample Weighting"라는 제목으로 발표될 예정이다.