제안된 방법은 버전 이질성을 가능하게 함으로써 표준 연합 학습의 상당한 제약을 제거합니다. 각 참가자는 모든 스타일의 개인 디자인을 가질 수 있습니다. 또한 대리 상호 작용 방식은 차등 개인 정보 보호 평가를 활용하여 보다 강력한 개인 정보 보호 보증으로 이어집니다. 선호하는 이미지 데이터 세트에 대한 실험과 최고 수준의 기가픽셀 조직학 전체 슬라이드 사진을 활용한 암 진단 문제는 ProxyFL이 훨씬 적은 상호 작용 비용과 더 강력한 개인 정보 보호로 기존 대안을 능가할 수 있음을 보여줍니다. 인공 지능은 개인화, 즉 인간의 피드백에 따라 행동을 조정하는 것을 목표로 시스템을 조정하는 데 널리 사용됩니다. 이 조정은 사람의 활동을 캡처하는 평가된 기능과 추가로 바람직한 결과를 나타내도록 의도된 편향되지 않은 기능, 즉 프록시에 의존합니다. 그러나 알고 있는 시스템의 세계 표현은 불완전하거나 충분하지 않을 수 있습니다. 예를 들어 사용자의 결정이 시스템에 알려지지 않은 속성을 기반으로 하는 경우입니다.
추천자 및 검색 장치
Shen et al과 비교할 수 있는 프록시 표준을 계산하기 위해 주요 매개변수 서버를 활용할 수 있습니다. 26. 그러나 이것은 다양한 고객에서 선형적으로 확장되고 분산되지 않는 상호 작용 비용을 확실히 발생시킬 것입니다. 상호 작용 비용을 상당히 줄이는 고객 간의 프록시 교환을 위해 PushSum 체계13, 15를 적용할 것을 제안합니다. 원시 데이터가 고객 장치를 떠나지 않지만 FL은 여전히 개인 정보 침해에 취약합니다27, 28. DP는 FL과 결합되어 참여하는 모든 클라이언트에 대한 개인 정보 보호 보증이 있는 중앙 버전을 교육합니다29. 슬로프 업데이트가 단독 훈련 예시의 세부 사항에 크게 의존하지 않도록 함으로써 기울기는 DP 보장30으로 중앙에 축적될 수 있습니다.
eIQ 툴킷을 탑재했지만 버전을 교육할 때 사전 경험 모델을 다운로드하지 않고 오류가 발생합니다. 저는 프록시 뒤에서 작동하고 있기 때문에 어디에서 구성을 설정할 수 있는지 알 수 있도록 도와주실 수 있습니까? 롤대리 활용하면 원하는 세계의 컬렉션과 이것의 상위 집합인 프록시를 갖게 됩니다(원하는 것을 정확히 조준할 수 없기 때문에). 문제는 AI가 높은 확신을 가지고 상위 집합에 들어가고 거기에 머물도록 향상되고 있기 때문에 도달할 준비가 된 가장 간단한 부분으로 가고 또한 남아있을 수 있다는 것입니다(언급한 액세스 제한으로 전송됨).< /p>
추천 시스템에 대한 광범위한 조사[8]는 고정 평가(모니터링된 지식)를 위한 분석적 접근 방식인 4개의 최신 알고리즘을 사용하지만 우리가 연구하는 공식을 아는 강화는 제외됩니다. Jannach와 Jugovac[9]는 추천 시스템이 인터넷 회사와 같이 실행되는 환경에 어떻게 기여하는지 조사합니다. 우리는 이러한 문제가 데이터의 공정성, 불충분함, 오류와 같은 도전과제와 구별된다는 점을 다시 한 번 명심합니다. 이러한 문제는 다른 시스템과 다른 결과를 통해 학습 실패를 초래하기도 합니다.
FedAvg 및 FML-proxy와 같은 중앙 시스템은 분산된 AvgPush 및 ProxyFL-proxy와 달리 프로세스 전체에서 많은 것을 발견하지 못하는 것을 볼 수 있습니다. 또한 ProxyFL-private은 교육 전반에 걸쳐 지속적으로 FML-private을 능가하여 ProxyFL 버전이 FML에 비해 개인 버전에 훨씬 더 나은 검색 신호를 제공할 수 있음을 보여줍니다. B 고객이 이질적인 디자인 아키텍처를 가지고 있을 때의 정확도, 그리고 차등 배타적인 교육이 있는 경우와 없는 경우의 정확도. 각 수치는 5회의 독립 실행마다 8명의 고객에 대한 평균 및 일반적인 불일치를 보고합니다.
확장 가능한 가변 가우시안 절차를 사용하여 전자 병리학의 군중에서 선택
우리 업무와 더 직접적인 관련이 있는 것은 Haug et al. [2] 시스템에 기록된 기능과 고객의 관심도 사이에 불평등이 있을 때 피드백에 의한 학습의 행동을 고려합니다. 초점은 시스템이 특정 작업에서 잘 수행되도록 개인에 의해 명시적으로 교육되는 학습의 특정 응용 프로그램입니다. 그들은 그러한 맥락에서 보상 기능(우리의 용어로 프록시)이 찾고 있는 ‘실제’ 인센티브와 일치하지 않을 수 있음을 보여주고 시스템이 더 큰 유연성을 허용하도록 만들 수 있는 방법을 권장합니다. 실패가 발견되자마자 훈련. 즉, 실패 문제의 일반성과 그 발견도 살펴보지 않습니다. 우리는 MNIST37, Fashion-MNIST(FaMNIST) 38 및 CIFAR-1039에 대한 실험을 수행했습니다. MNIST와 FaMNIST는 차원 28 × 60k 훈련 이미지를 가지고 있습니다. 28, CIFAR-10에는 크기가 32 × 32인 50k RGB 훈련 사진이 있습니다. 각 데이터 세트에는 설계 성능을 평가하는 데 사용되는 10k 테스트 사진이 있습니다. 실험은 8개의 클라이언트를 나타내는 8개의 V100 GPU가 있는 웹 서버에서 수행되었습니다. 각 실행에서 모든 클라이언트는 교육 컬렉션에서 경험한 1k(MNIST 및 FaMNIST) 또는 3k(CIFAR-10)의 겹치지 않는 개인 이미지를 가지고 있었으며, 이는 제공된 교육 정보의 일부만 총 사용되어 범주의 문제를 높인다는 것을 암시합니다. 일. 비 IID 정보에 대한 유효성을 확인하기 위해 고객에게 왜곡된 개인 데이터 순환이 제공되었습니다. 각 클라이언트에 대해 무작위로 선택된 클래스가 지정되었으며 해당 클래스에서 해당 고객의 개인 정보 중 일부 pmajor(MNIST 및 FaMNIST의 경우 0.8, CIFAR-10의 경우 0.3)가 유인되었습니다. 나머지 데이터는 IID 방식으로 다른 모든 과정에서 임의로 가져왔습니다. 따라서 고객은 IID 시험 컬렉션을 잘 일반화하기 위해 협력자로부터 배워야 합니다. 그들은 공통 이해 전달을 위한 전략인 깊은 상호 지식(DML)24의 DP 변형을 사용하여 교육을 받습니다. DML은 처음부터 두 설계를 동시에 교육할 수 있을 뿐만 아니라 두 설계에 유용한 정보를 제공하기 때문에 사전 훈련된 교육자와 일반적으로 더 작은 학생25 사이의 지식 정화와 유리하게 비교됩니다. FML(Federated Mutual Understanding)26은 프록시 모델과 유사한 밈 디자인을 도입했습니다. 이 모델은 각 클라이언트의 독점 버전과 동일하게 추가로 학습되지만 중앙 웹 서버에 축적됩니다. 그럼에도 불구하고 FML은 간소화되고 고객에게 개인 정보 보호를 보장하지 않기 때문에 다기관 협업 환경에 적합하지 않습니다. 본 논문에서는 다중 클래스 베이즈 분류기에 대한 학문적 지식 윤곽을 획득한다. 이 곡선은 클래스 조건부 확률 두께의 일반적인 다변량 매개변수 설계에 적합합니다. 유도는 실제 경로의 사후 우도에 비례하는 통계의 병합을 조사하는 것을 기반으로 프록시 방법을 사용합니다. 그렇게 함으로써 윤곽선은 트레이닝 세트 크기와 속성 벡터의 차원에 따라 달라집니다. 버전 매개변수에 의존하지 않습니다. 기본적으로 학습 윤곽은 훈련 세트 차원을 높임으로써 얻을 수 있는 실수 가능성을 초과하여 감소하는 가격 견적을 제공합니다. 이것은 이상적인 트레이닝 세트 차원을 지정하는 실제적인 문제를 처리하기 위해 매력적입니다. E2CO(Embed to Management and Observe)로 설명되는 다른 E2C 기반 프록시 디자인은 전환 결과라는 또 다른 네트워크 블록을 활용하여 시스템 결과를 바로 예상할 수 있을 뿐만 아니라 특정 유정 모델 공식이 필요하지 않습니다. 3D 컨볼루션 레이어를 활용하여 기존 E2C 및 E2CO 설계를 업데이트하고 3D 변경 조건을 처리하기 위해 손실 함수를 변경했습니다. 쉽게 이것은 빠른 탐사 속도가 알고리즘이 최적화되지 않은 팔을 자주 제공하도록 강제할 뿐만 아니라 느린 탐사 속도가 확실히 학습 속도를 늦출 것임을 시사합니다. 그들의 책의 초판(1998)에서 Sutton과 Barto는 탐색이 일정한 가능성 ϵ로 수행되는 ϵ-탐욕스러운 계획을 제시했습니다. 이 작업은 오늘날의 추가 기존 참조 [12] Auer et al. [13] Lai와 Robbins가 제시한 최적 후회 조건을 만족하기 때문에 최적임을 입증할 수 있는 다양한 구현을 연구합니다. 우리가 사례 연구로 조사한 기계 학습 기반 도구는 추천 시스템입니다. 이들은 사용자가 선택할 수 있는 제품 체크리스트를 제공하기 위해 고객의 선호도를 찾기 위해 개발되었습니다. 그럼에도 불구하고 이 타고난 인간 결과는 시스템에서 직접 볼 수 없으므로 프록시를 대신 사용해야 합니다. Suresh와 Guttag [3]는 기계 학습의 ‘계획되지 않은 결과’로 공정성의 문제를 특징지으며 우리의 업무를 포함합니다. 그들의 분류(및 이전 분류의 통합)는 모델 개발, 평가, 사후 처리 및 배포가 뒤따르는 준비 작업뿐만 아니라 데이터 수집의 수집으로서 기계 학습에 대한 추상적 설명에 달려 있습니다. 우리의 작업은 일반적으로 Suresh와 Guttag의 구조 확장에 포함될 수 있으며, Danks와 London [4]에 의해 언급된 디자인 조정이나 번역과 같은 다른 제한 사항도 포함될 수 있습니다. 이에 대해서는 아래에서 더 자세히 살펴봅니다. 연구로서 우리는 다음과 유사한 영화 추천 시스템을 사용합니다.
채터 프로토콜13은 효과적인 커뮤니케이션과 정보 공유14, 15에 사용할 수 있습니다. 문헌에는 버전 가중치16, 17, 전문 기술 표현18 또는 버전 출력19, 20을 포함하여 다양한 종류의 세부 정보가 교환되고 있습니다. , 이러한 프로토콜 중 어느 것도 개인 프라이버시에 대한 정량적 학문적 보증을 제공하지 않습니다.
Leave a Reply