基于个性化Transformer的联邦学习模型训练方法及联邦学习系统
申请号CN202211271384.1
2023-01-13
公开(公告)号CN115600686A
公开日期2023-01-13
摘要本发明公开了一种基于个性化Transformer的联邦学习系统。本发明的另一个技术方案是提供了一种基于个性化Transformer的联邦学习模型训练方法。本发明为每个客户端学习一个独特的自注意力层,而其他层的参数在客户端之间共享。此外,本发明通过在服务器上训练一个超网络,以生成自注意力层中的投影矩阵,从而获得与客户端相关的查询、键和值。这种超网络有效维护了客户端之间参数共享,同时保持了个性化Transformer的灵活性。因此本发明大大提升了联邦学习在数据异构环境下的推理预测能力。
当前权利人上海科技大学
专利代理人翁若莹 ; 柏子雵
代理机构上海申汇专利代理有限公司 31001
专利申请人上海科技大学
公开国别中国
公开国别简称CN
IPC 分类号G06N20//00; G06N3//04; G06N3//08
专利有效性审中
专利类型发明申请
专利类型字典1
当前法律状态实质审查
简单同族CN115600686A
扩展同族CN115600686A
INPADOC 同族CN115600686A
文献类型专利
条目标识符https://kms.shanghaitech.edu.cn/handle/2MSLDSTB/266584
专题信息科学与技术学院_PI研究组_石野组
信息科学与技术学院_硕士生
信息科学与技术学院_PI研究组_汪婧雅组
作者单位
上海科技大学
推荐引用方式
GB/T 7714
石野,李红霞,蔡中一,等. 基于个性化Transformer的联邦学习模型训练方法及联邦学习系统. CN202211271384.1[P]. 2023-01-13.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
基于个性化Transformer的联邦学(1027KB)专利 限制开放CC BY-NC-SA请求全文
个性服务
查看访问统计
谷歌学术
谷歌学术中相似的文章
[石野]的文章
[李红霞]的文章
[蔡中一]的文章
百度学术
百度学术中相似的文章
[石野]的文章
[李红霞]的文章
[蔡中一]的文章
必应学术
必应学术中相似的文章
[石野]的文章
[李红霞]的文章
[蔡中一]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。