Resource Efficient and Model Converged Federated Learning With Pareto Optimality

DC Field Value Language
dc.contributor.advisor고영배-
dc.contributor.author정준표-
dc.date.accessioned2022-11-29T03:01:28Z-
dc.date.available2022-11-29T03:01:28Z-
dc.date.issued2022-08-
dc.identifier.other32122-
dc.identifier.urihttps://dspace.ajou.ac.kr/handle/2018.oak/21206-
dc.description학위논문(석사)--아주대학교 일반대학원 :AI융합네트워크학과,2022. 8-
dc.description.abstract본 논문은 분산 학습의 하나인 연합 학습 환경에서 글로벌 모델의 수렴성과 자원의 효율 적인 소모에 대한 방법에 대해 제안하였다. 기존의 클라이언트와 서버가 직접 통신하며 모델 파라미터를 주고 받던 방식에서, 클라이언트의 위치 기반 클러스터링을 통해 D2D 통신망을 구축하였다. 구축된 클러스터를 통해 통신 거리 기반, 중앙에 위치한 클라이언트를 리더 클 라이언트로 지정함으로써 자원의 소모가 경감되는 계층적 구조의 연합 학습 프레임워크를 구축하였다. 또한, 기존 연합 학습에서 참여 클라이언트가 무작위 선출됨에 따라 발생하는 모델의 수렴성 저하와 서버의 병목현상 유발을 클라이언트의 학습 손실 값을 기준으로 참여 시킴으로써 문제점을 개선한다. 마지막으로, 연합 학습에서 모델의 수렴성과 자원의 소모는 trade-off 딜레마를 클라이언트의 자원과 손실 값을 통해 타원 함수 형태의 파레토 최적화 계산을 통해 합리적인 클라이언트 선택하는 효율적인 방안을 제시한다.-
dc.description.tableofcontents1 Introduction 1 2 Related Works 5 3 Preliminaries 8 3.1 Federated Learning 8 3.2 Pareto Optimality 9 4 System Model 10 5 Federated Learning with Pareto Optimality 13 5.1 Convergence Analysis 13 5.2 Problem Formulation 14 5.3 Proposed Algorithm 14 6 Performance Evaluation 17 6.1 Simulation settings 17 6.2 Simulation results 18 7 Conclusion 25 7.1 Conclusion 25 8 Bibliography 26-
dc.language.isoeng-
dc.publisherThe Graduate School, Ajou University-
dc.rights아주대학교 논문은 저작권에 의해 보호받습니다.-
dc.titleResource Efficient and Model Converged Federated Learning With Pareto Optimality-
dc.typeThesis-
dc.contributor.affiliation아주대학교 일반대학원-
dc.contributor.department일반대학원 AI융합네트워크학과-
dc.date.awarded2022. 8-
dc.description.degreeMaster-
dc.identifier.localId1254244-
dc.identifier.uciI804:41038-000000032122-
dc.identifier.urlhttps://dcoll.ajou.ac.kr/dcollection/common/orgView/000000032122-
dc.subject.keywordCloud computing-
dc.subject.keywordEdge intelligence-
dc.subject.keywordFederated learning-
dc.subject.keywordPareto optimality-
dc.description.alternativeAbstractFederated Learning (FL) is an emerging distributed learning technique used to train big data across the user’s data in resource-constrained situations and to protect user’s privacy. However, There are three main issues in FL. First, the parameter server (PS) that aggregates local models trained by user’s local data is in the remote cloud. In the process of aggregating the local models, the distance from users to PS may burden the path links between the PS and high-traffic local nodes. Second, The resource limitation of the user devices is not considered. Third, PS-side links may be highly stressed if the number of participating clients is large and congested owing to the large size of the model parameters. In the present study, we propose a resource efficient FL scheme with Pareto optimality and biased-client selection by exploiting Pareto principle. Simulation results show that our proposed scheme reduces network traffics while maintaining a slightly higher accuracy than the legacy FL mechanism.-
Appears in Collections:
Graduate School of Ajou University > Department of Artificial Intelligence Convergence Network > 3. Theses(Master)
Files in This Item:
There are no files associated with this item.

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse