药物研发大数据分析 (上图显示实验数据量与预测准确性之间的正向相关性) 论文指出采集大量全面的实验流程数据(在论文案例中采集了259个任务中的3780万个数据点)进行分析产生的结果要比分析小规模数据集或单一任务的建模分析要好很多。(谷歌的博客里有更高冷专业的解释) 众所周知,医药企业研发新药通常需要花费数十亿美元,耗时多年。 谷歌在论文中指出,实验数据量与多重学习效率呈现相关性,数据量足够大才能输出最佳结果,此外目前所有的深度学习和虚拟筛选(Virtual Screen)应用都采用了独立的数据集,因而无法有效评估算法的性能。而大型医药公司都各自拥有大量实验数据,谷歌和斯坦福的研究表明医药公司之间如果能够加大数据分享力度,那么所有参与的公司都将获益。 End. 建议你点击“阅读原文”,从官网连接下载本文Pdf ↓↓↓↓↓ |
|