分卷阅读53(2 / 2)

上一页 目录 下一章

“他很可能携带电子讯息屏蔽装置,”徐静怡余光瞅见那个男孩偷溜出大堂,心中更有猜测,“他靠近我时,百合与我发信息提醒,说连接信号弱,数据包传送受到严重影响。”

系统大惊,【宿主,我们要不要马上报警!】

“嗯,不着急,没有证据,”徐静怡微微摇头,“再说留个眼皮子低下的坏人不算威胁。到时候注意点就行。果然……哪一个百合都是我的守护星啊。”

她脸上露出一丝感慨。

【……】系统忽然冒出浓浓的危机意识,【那个,宿主其实我也很有用的!要不让我开放全民好感度涨幅提示吧!对你有敌意的肯定是负数,到时候还没靠近你就能发现……】

“不,太吵。”徐静怡很果决摇头。

“这位同学?”站在台上的森田教授很睿智地看着她,语态很温和,“刚刚我的说法是有什么问题吗?你似乎对此有些不同的见解!”

徐静怡一懵。

系统,【糟糕了宿主!好像这位老大爷误会你刚刚摇头了!你别慌,他正在讲rnn和与传统神经网络区别!】

----原来已经讲到处理序列数据的循环神经网络。

这个用大白话来形容,就是机器人处理问题时的逻辑思维能力。举个例子比如“我实在是太冷了,准备去xxx”,根据前面的输入判断“xxx”很大可能就是“穿衣服”,这就是序列数据。

徐静怡快速扫了一眼黑板,“tanh和sigmoid激活函数的rnn如果遭遇梯度消失要如何是好?”

徐静怡起身,慢条斯理地开口:“tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘操作。而向量函数对向量求导结果为一个jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用relu来替代tanh和sigmoid激活函数,或者用lstm或gru结构。”

森□□授调皮的眨眨眼:“回答得相当标准。你对智能编程有所研究对吗?”

徐静怡点点头。

旁边忽然有一个留着长刘海的女生显然是迷妹,她再三打量徐静怡,忽然低呼:“啊,难道,难道你就是直播间的超级大科学家吗?!”

这名字挂在直播间不觉得,突然被人喊出来有点中二。

徐静怡:“……”微微额首。

这里不少学生都看过那个直播,顿时引起窃窃私语,不少人对着徐静怡小声地指点,有激动的,也有不屑的。

森田教授讶异地看向助教,助教在阶梯上询问了几句后跑到森田教授那低声说。

森田教授眼前一亮,看向徐静怡,笑了笑:“如何设置网络的层数rnn_layers来增强神经网络的学习能力?”

最新通知

网址已经更换, 最新网址是:blnovelhub.com 关于解决UC浏览器转码章节混乱, 请尽可能不要用UC浏览器访问本站,推荐下载火狐浏览器, 请重新添加网址到浏览器书签里

目前上了广告, 理解下, 只有这样才可以长期存在下去, 点到广告返回不了可以关闭页面重新打开本站,然后通过阅读记录继续上一次的阅读

搜索的提交是按输入法界面上的确定/提交/前进键的

上一页 目录 下一章