加速数据要素安全流通,翼方健数开源翼数联邦学习和翼数安全计算

发表时间:2022-07-25 18:39

7月25日,翼方健数举办了隐私安全计算开源发布会,正式宣布开源翼数联邦学习框架和翼数安全计算引擎。翼方健数这次隆重开源工业产品级的隐私计算框架,目的是普及隐私计算技术,降低技术使用门槛,共建行业生态,翼方健数开源这两项技术必将助推更多开发者从隐私计算理论阶段到日常应用创新踏出关键一步。


图片


在去年11月10日举办的首届DataX大会暨翼方健数战略发布会上,首席科学家张霖涛博士提到,“翼数联邦学习框架XFL和安全计算框架XSCE在未来都会开源。”在本次「翼言为定   如源而至」隐私安全计算开源发布会上,翼方健数决定将核心技术开源,这代表翼方健数的技术愿意接受最大范围和所有维度的检测——让各方数据资产的计算、流通和共享过程真正实现透明、可信、可监管。张霖涛表示,数据的价值在于流动,通过开源降低隐私计算的技术门槛,让隐私计算技术赋能更多的数据与应用,诚挚邀请更多开发者对技术进行共用共创,加速促进数据与计算互联网的建立。


翼方健数此次开源的翼数联邦学习和翼数安全计算采用了Apache 2.0开源许可证,在系统构架上强调“轻量“高效”、“低依赖”、性能”、“易扩展、“易集成”,以期让更多开发者能够在日常的计算过程中使用到隐私计算技术,在更多行业应用场景实现数据使用”自由,通过技术普惠推动数字经济快速发展。


联邦学习是隐私保护、安全加密的分布式机器学习框架,旨在让分散的各参与方在满足不向其他参与者披露原始数据的前提下,互相协作完成机器学习的模型训练。多方安全计算及相关技术是一系列基于严格的密码学原理实现的,能够在保护参与方原始数据和隐私的前提下完成协作计算的技术统称。参与方不分享原始数据,而是通过计算协议,最终获得计算结果,且仅能获得计算结果。


本次开源的翼数联邦学习能够支持大规模分散数据集模型训练的分布式机器学习方法,避免在机器学习过程中迁移数据集,实现“数据不动模型动”,数据不出域,也能在支持主流环境下进行安全联合建模,支持包括横向、纵向和联邦迁移学习等多种主流算法。翼数联邦学习具备高性能的算法库;在计算节点、算力调配及应用部署方面十分灵活;轻量开放,对服务器要求低,支持不同模型框架以及自定义模型的集成。


翼数安全计算是以OT协议、秘密分享、混淆电路等基本MPC协议以及BFV、CKKS等同态加密算子为基础构建的能够支持实际业务应用场景的一套高效完备、灵活部署、集成开放的机密计算引擎。除了与翼数联邦学习同样具备高效完备的算法库以及灵活的部署应用的特性外,翼数多方安全计算横向能够集成多种机密计算技术,纵向能够集成数据治理、文件存储等上下层组件,支持集成第三方硬件加速部件,进一步提升其性能和易用性。


基于对数据安全和隐私保护的要求不断提升,“未来所有的计算无疑都将是隐私安全的计算”。翼方健数希望将核心技术,通过开源协作的方式激励更多开发者和用户深度参与技术的迭代和发展,加速促进更大规模的数据流通。


隐私计算的开源不止是技术共享,还将助力开源生态,构建隐私计算应用场景和新型产业生态圈,促进数字经济发展。翼方健数开源技术将接受公开和多维地审阅,真诚期望在技术的“众用众创”之后能够成为更为普及和受欢迎的基础计算技术,乘开源之势,共同打造数字经济时代的IT基础设施。


目前,翼方健数已向社区开放翼数联邦学习和翼数安全计算的全部源码和相应文档,并会在未来不断开发新的算法和模型,持续提高开源项目的性能,可靠性和可用性欢迎对隐私计算技术感兴趣的开发者和用户提出问题,贡献代码应用案例群策群力共建社区生态。


翼数联邦学习源码地址:

https://gitee.com/basebit-ai/XFL

翼数安全计算源码地址:

https://gitee.com/basebit-ai/XSCE


分享到: