分享

粱天一 | 深度学习可能是同态映射

 Naz摘星星 2022-04-26


作者介绍 :华东师范大学 · 计算机科学 博士
                   深兰科技人工智能研究院

这可能是一个很有潜力的观点。这个关乎到深度学习的本质,他是什么。这个我们人类用来征服这个高度非线性的,复杂系统的现实问题的工具,采用的方法不同于建立现实世界的简化假设推导公式构建机理模型;不同于用数值模拟的方法;不同于频率派进行大规模的统计,然后搞出p值来论断自己的假设。而是用数据驱动的方式,学习一种不同数据之间的映射。比如一个人脸识别的学习器的映射就是 把人脸图像数据映射到人脸的类别标签;而深度生成模型,包括如今大放异彩的生成对抗网络与自编码器,是学习数据分布的映射。今年nips上一篇研究LANE以及微软亚洲研究院对这篇研究的分析zhihu.com/question/2641
可能重构了我们对于深度学习的本质的理解。深度学习其实不只是数据之间的映射,数据之间的映射只是鹦鹉学舌,重复训练集,做一些费力而且有限的推广。我们那些真正大放异彩的现代深度网络,其实很有可能是学习到了数据与数据之间的同态映射,同态映射除了学习到数据点之间的映射,还学到了数据以及数据之上的变换之间的映射。比如图像生成领域,往往把一个图像嵌入到隐向量空间,将图像以及图像上的一些高度非线性的变换(如人脸数据集的人脸拉长,戴眼镜,左右转向)同态映射到了一个低维的线性空间以及其上的线性变换群,从而让stylegan生成的结果是能够进行语义变换的,比如新加入的人脸进行拉长,转向,戴眼镜。实际只是在隐向量空间(就是那个线性空间)里面做了个线性加法然后生成出来。(大家可以下载这个demo:github.com/genforce/idi,然后点开html看一看例子)
这个观点并不是凭空而来,而且如果大家看过一点群表示论,会直观的理解这件事情并且感同身受。当然,要从理论,设置数学上严格证明这件事情还有相当一部分工作。同类的对深度学习的解释性的工作领域包括流形学习和李群机器学习。
暂时先编辑到这里,后面会补上一些动图,映射的图例介绍,以及这个工作的工程应用价值:他并不是仅仅用来提高模型的准确率。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多