浏览器原理:5种渲染模式

java中接口——interface

  返回  

【工作相关】笔试总结

2021/8/21 11:20:56 浏览:

记录自己在笔试过程中遇到的不是很明了的问题

文章目录

  • 有赞 2021/8/21
    • Q1:聚类有效性指标有哪些?
    • Q2:pre、rec、acc的计算?
    • Q3:为什么深度网络的激活函数必须为非线性?
    • Q4:Attention机制有哪些?简述下Self-attention?


有赞 2021/8/21

Q1:聚类有效性指标有哪些?

CH、DB、DVI、SC、XB、PBM、SSE、NMI、F-measure、RI & JI

Q2:pre、rec、acc的计算?

acc = 正确数/总数
Precision=TP/(TP+FP):预测为正的样本中有多少是真正的正样本
Recall=TP/(TP+FN):实际为正的样本有多少被预测正确了

Q3:为什么深度网络的激活函数必须为非线性?

  • 如果使用线性函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。加深神经网络的层数就没有什么意义了。
  • 相反如果使用非线性函数,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。

Q4:Attention机制有哪些?简述下Self-attention?

  • Attention本质:本质学习人类视觉重点关注某一部分的注意力机制。我们视觉在感知东西的时候,一般不会是一个场景从到头看到尾每次全部都看,而往往是根据需求观察注意特定的一部分。而且当我们发现一个场景经常在某部分出现自己想观察的东西时,我们就会进行学习在将来再出现类似场景时把注意力放到该部分上。
  • Attention概念:对输入的每个元素考虑不同的权重参数,从而更加关注与输入的元素相似的部分,而抑制其它无用的信息。即提醒我们要重点关注那些更有影响的部分
  • Self-attention:神经网络接收的输入是很多大小不一的向量,并且不同向量向量之间有一定的关系,但是实际训练的时候无法充分发挥这些输入之间的关系而导致模型训练结果效果极差。自注意力机制实际上是想让机器注意到整个输入中不同部分之间的相关性。

联系我们

如果您对我们的服务有兴趣,请及时和我们联系!

服务热线:18288888888
座机:18288888888
传真:
邮箱:888888@qq.com
地址:郑州市文化路红专路93号