18年2月初去的360面试,这是第一次去大型互联网公司面试,也只是抱着试试看的念头,但是年后HR给我打电话说我通过了,然后就没再准备其他公司的,一心等3月多去公司。结果,一直没等到正式offer的我给公司打电话,跟我说人招满了,忘记通知我了。呵呵到无话可说,如果第一个电话告诉我说我没过也可以,关键是我都准备着去北京了,结果又是因为其他原因说忘记通知了。。。ε=(?ο`*)))唉
面试经过:共3面,第一面是个技术大牛,怼了我一顿,主要有这样几个问题:
1.当场写代码:tensorflow的应用,比如写一个对图像进行分类的实际应用代码。
2.keras的应用:不用写代码,但是要知道应用场景
3.推荐算法的矩阵分解怎么做。
4.最大似然和贝叶斯分类的区别(回答:先验的有无),分别适用于什么场景:贝叶斯适用于小数据集,因为先验好求。
5.判别式和生成式的算法各有哪些,区别是什么,分别适用于什么场景。
6.LR和最大似然的区别
7.L1和L2范数的区别以及适用的场景
8.各种算法的损失函数怎么写
第二面应该也是一个技术,看起来像是管理层,问的比较简单,就是介绍一下自己简历上做过的项目
三面是HR面试,一个孕妇,问了一下薪资的问题。
总的2个多小时的时间,3个面试就结束了,可以说是比较有效率。
1.当场写代码:tensorflow的应用,比如写一个对图像进行分类的实际应用代码。
2.keras的应用:不用写代码,但是要知道应用场景
3.推荐算法的矩阵分解怎么做。
4.最大似然和贝叶斯分类的区别(回答:先验的有无),分别适用于什么场景:贝叶斯适用于小数据集,因为先验好求。
5.判别式和生成式的算法各有哪些,区别是什么,分别适用于什么场景。
6.LR和最大似然的区别
7.L1和L2范数的区别以及适用的场景
8.各种算法的损失函数怎么写
问项目
为什么要用深度学习,深度学习的效果为什么好
为了让分类器更强大,可以使用广义非线性特征以及核函数方法。但广义特征(如高斯核函数)泛华能力差,常规的方法是手动设计好的特征提取器,而这需要大量工程经验和领域专家才能完成。如果好的特征可以使用通过学习的方法自动学习得到,上述问题就可以避免,这是深度学习的核心优势。
sigmoid和relu的区别
第一,采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。
第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况(在sigmoid接近饱和区时,变换太缓慢,导数趋于0,这种情况会造成信息丢失,参见答案的第三点),从而无法完成深层网络的训练。
第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。
svm是什么
从文件读取一行数据,包括姓名,学号, 工资,找到工资最大值。 followup,如果要取前10个呢?
python用的好不好
怎么防止深度学习中过拟合
学过深度学习吗,用过什么深度学习框架
问项目
为什么要用深度学习,深度学习的效果为什么好
为了让分类器更强大,可以使用广义非线性特征以及核函数方法。但广义特征(如高斯核函数)泛华能力差,常规的方法是手动设计好的特征提取器,而这需要大量工程经验和领域专家才能完成。如果好的特征可以使用通过学习的方法自动学习得到,上述问题就可以避免,这是深度学习的核心优势。
sigmoid和relu的区别
第一,采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。
第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况(在sigmoid接近饱和区时,变换太缓慢,导数趋于0,这种情况会造成信息丢失,参见答案的第三点),从而无法完成深层网络的训练。
第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。
svm是什么
从文件读取一行数据,包括姓名,学号, 工资,找到工资最大值。 followup,如果要取前10个呢?
python用的好不好
怎么防止深度学习中过拟合
学过深度学习吗,用过什么深度学习框架