分享

我用ChatGPT写神经网络:一字不改,结果竟然很好用

 mynotebook 2023-01-14 发布于湖南

2023

从此不迷路

计算机视觉研究院
图片

图片

计算机视觉研究院专栏

作者:Edison_G

AI 写 AI,来得比预料中更快一些。
公众号ID|ComputerVisionGzq
学习群|扫码在主页获取加入方式
转自《机器之心》
自从去年底推出以来,对话式 AI 模型 ChatGPT 火遍了整个社区。

ChatGPT 的确是一个了不起的工具,就像一个「潘多拉魔盒」。一旦找到正确的打开方式,你或许会发现,自己再也离不开它了。

作为一个全能选手,人们给 ChatGPT 提出的要求五花八门,有人用它写论文,有人让它陪聊,这些都是常见的玩法。脑洞再打开一点,既然 ChatGPT 是 AI 中的「王者」,那它会不会写一个 AI?

近日,一位机器学习领域的博主突发奇想,他决定让 ChatGPT 构建一个神经网络,使用 Keras 解决 MNIST 问题。

MNIST 算是机器学习领域的经典问题。即使这个手写数字数据集逐渐淡出了计算机视觉领域,但它的纪念意义仍然不可忽视,很多人入门深度学习的第一个数据集、验证算法的第一个实验都是 MNIST。

图片

话不多说,想到了就开工。作者直接让 ChatGPT 写了一段代码,看上去完美无缺,甚至不需要更改任何内容。

图片

这是一个很好的开始。

ChatGPT 选择了分类交叉熵作为损失函数。作者提出重写分类交叉熵这部分代码,ChatGPT 将其替换为稀疏分类交叉熵,更新之后的代码仍能 Work。可以发现,新的损失函数放弃了标签的分类转换。

图片

ChatGPT 生成的代码使用了全连接层,但作者想使用卷积层。因此,ChatGPT 按照指示修改了代码,并添加了一个 Conv2D 和一个最大池化层(MaxPooling layer)。

图片

然后来到了评估最终模型阶段,作者让 ChatGPT 使用测试集编写代码。

图片

结果看起来很棒,而且 ChatGPT 的每一次回复都带有完整的解释。比如在这次评估中,它这样解释:

「评估」方法将测试数据和测试标签作为参数,并返回模型编译(此处为准确率)期间指定的损失和度量。上面的代码片段输出了测试的准确率,这应该可以让你了解到模型对新数据的概括性。

模型在训练期间使用了整个测试集作为验证数据。然后,作者让 ChatGPT 将其更改为训练数据的 20%。

图片

此外,作者还想要更小的 batch 并运行更少 epoch 的代码。虽然这一步未必要用到 ChatGPT,但他不想在不更新 ChatGPT 上下文的情况下更改代码。

所以这项任务还是落在了 ChatGPT 头上:

图片

接下来,作者打算绘制训练过程中的训练和测试损失图。ChatGPT 的建议是:需要更改适合模型的 line 以捕获其结果值。

图片

图片

为了展示数据集中的一些示例,作者让 ChatGPT 编写代码来输出图像和标签的组合。这些输出的代码也很完美,附有 20 张图片的合集。

图片
图片

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多