subtitle
05
29
hashcode的大揭秘 hashcode的大揭秘
1.hashcode主要跟equal有关,当equal函数不改变,hashcode也就不发生改变 2.等价类的hashcode一定相同,而不等价类的hashcode可以相同也可以不同,相同的话查找起来会麻烦一些
2022-05-29 John Doe
26
训练不起来怎么办 训练不起来怎么办
Small Batch vs Large Batch 速度上或许我们会认为Large batch会更慢,但GPU的并行运算就导致当batch的数量不是特别多时,时间几乎与batch=1相同;总的时间large更占优势,比如6000
2022-05-26 John Doe
22
机器学习-深度学习初识 机器学习-深度学习初识
深度学习 Step1:神经网络(Neural network) Step2:模型评估(Goodness of function) Step3:选择最优函数(Pick best function) 完全连接前馈神经网络:任意两层之间的连接
2022-05-22 John Doe
21
机器学习-误差与梯度下降 机器学习-误差与梯度下降
误差 其实判断误差有两方面,一个是偏差Bias,另一个是方差variance,如图所示,很清晰的展现了他俩的概念,偏差是离靶心的距离,方差是离散程度。 当模型比较简单,此时所覆盖的面积小,数据对方差影响不大,但他覆盖不到靶点,所以偏
2022-05-21 John Doe
20
override VS overload override VS overload
override 它其实是子类对父类的一种继承,即对父类方法进行重写,重写后的方法是子类独有的,重写过程中参数不可改变。 overload 重载是对某一名称函数的一种复用,此时的复用不具有子类父类关系,若子类中对父类的方法进行重载,那么子类
2022-05-20 John Doe
18
机器学习2-宝可梦CP进化值的研究 机器学习2-宝可梦CP进化值的研究
模型步骤 step1:模型假设,选择模型框架(线性模型) step2:模型评估,如何判断众多模型的好坏(损失函数) step3:模型优化,如何筛选最优的模型(梯度下降) step1:模型假设 一元线性模型:y=b+w*x
2022-05-18 John Doe
16
机器学习第一天-总览 机器学习第一天-总览
监督学习要认为标出什么是输入什么是输出,俗称labels 半监督->监督的弱化版,不需要标注那么多(真的标注不过来鸭哇哇哇) 迁移学习:有很多不相干的数据 无监督学习:???这是机器能做到的? 监督学习中的结构化学习: 其实世界很大
2022-05-16 John Doe
13
HarmonyOS thought reflection HarmonyOS thought reflection
最近听了一场华为鸿蒙理念分享会,颇有感触,记录下来与大家分享~~ 1.实用的是最好的 互联网浪潮中的我们,身边充斥着个中移动设备,手机,电脑,笔记本,但是高科技却不代表一定就更好。 比如我们想用微波炉去热个菜,那么我们用手机敲一敲连接
2022-05-13 John Doe
12
hello world hello world
凌厉是一种强大,温柔亦是一种强大。
2022-05-12 John Doe
12