在我们人类的知识传承中,有一类是可以直接从书本或课堂学习中获得的,但还有一类是可意会而不可言传的,这是由个人的经验、直觉、感知、态度和价值观等因素形成的。比如说,骑自行车就是一个可意会而不可言传的技能,如何保持平衡、如何控制速度、如何转弯,这些技能还要相互配合,这就必须通过反复尝试、调整和实践才能形成。但由于难于表达,所以我们称之为暗知识。 而现在,我们在人工智能工具中使用机器学习算法,让机器从大量的数据中寻找获得答案的过程,也同时提取出了隐藏在数据中的规律和知识,而这些规律和知识,也可能是人类难以察觉的,这种无法显性表达的知识,也可以看作是暗知识。 再看目前类似ChatGPT这样的工具。这大部分语言模型,都是通过人类语料库进行监督式学习而训练的,它们获取的主要还是人类创造的知识,这是人类已知的、已经掌握的知识。不过,如果让 ChatGPT 自己进行训练,在训练中采用无监督学习,就像AlphaGo Zero那样通过自我对弈进行训练呢,那么它是否可能发现一些人类未曾意识到的暗知识呢?这种可能性我们显然不能排除。 但是,与AlphaGo Zero不同,能够进行自我训练的语言模型,目前来看还没有那么容易实现,会面临着更多的挑战。语言是一种非常复杂的人类行为,涉及到语法、语义、逻辑、上下文关系等多个方面,这比围棋的规则要复杂得多。因此对于一个语言模型来说,充其量也就是发展出了可以与人相媲美的语言能力,至于自我训练出能够超越于人类发现知识的能力,可能短时间内还无法做到,目前的算法也需要突破。 那么我们这里可以假象一下,如果算法得到了突破,也经过了足够长时间的训练,那么未来的人工智能,就可能就会具备更强的逻辑能力和推理能力,甚至还可能会表现出比人更具优势的想象力和创新能力。它作为语言工具,不仅能帮助人们消除一些潜在的偏见和错误,还能更好地理解和应对不同的文化、社会和心理因素,促进人类之间的相互理解和交流。而作为一个知识发现工具,它可能会从大量语言数据中发现规律和模式,发现一些与人类已有知识不一致或矛盾的理论,从而促进人们对某些科学问题进行重新思考和研究,甚至也可能提出一些新的科学问题和假设,指导人们进一步探究和验证。 从另外一个方面讲,由于人工智能受到自身算法和数据的限制,也可能产生一些误导性的结论和推断,这就需要人类对其进行仔细审查和评估,但麻烦的是,人类无法理解这些内容,这就是对人类带来了潜在的挑战。好在,这目前还只是一个假设。 对于这个问题,我其实只是开了个头,欢迎有兴趣的朋友继续讨论:暗知识,是天使还是魔鬼? |
|