加载中…
个人资料
勇闯天涯的虾客
勇闯天涯的虾客
  • 博客等级:
  • 博客积分:0
  • 博客访问:1,394,226
  • 关注人气:1,445
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
个人简介
读万卷书,行万里路,阅无数人。超级吃货,爱吃湖南菜,川菜,杭帮菜,尝遍天下美食。摄影爱好者,游历全国各地,阅尽人间春色。爱看电影,尤其是美国大片和俄罗斯生猛大片!非主流影评写手。近期关注人工智能!
访客
加载中…
好友
加载中…
金百利娱乐JBLKBL微博
博文
(2018-08-17 13:18)
标签:

knn算法

分类: 人工智能

 

KNN算法理解

 

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 
标签:

推荐系统

核心技术

分类: 人工智能

21张知识卡,告诉你推荐系统的核心技术

 

 

http://www.paxononline.com/s/mPYGgKUzYisuNbQLeD5L4w

 

微信号 ai-front

 

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 

 

基础篇|一文搞懂RNN(循环神经网络)

 

 

http://www.paxononline.com/s/va1gmavl2ZESgnM7biORQg

 

 

神经网络基础

 

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 

【深度学习理论】一文看懂卷积神经网络

 

http://www.paxononline.com/s/wzpMtMFkVDDH6scVcAdhlA

 

选自Medium

 

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 

【机器学习基本理论】详解最大后验概率估计(MAP)的理解

 

http://www.paxononline.com/weixin_42137700/article/details/81628065

 

最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum a posteriori estimation, 简称MAP)是很常用的两种参数估计方法,如果不理解这两种方法的思路,很容易弄混它们。下文将详细说明MLE和MAP的思路与区别。上篇讲解了MLE的相应知识。【机器学习基本理论】详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解下面讲解最大后验概率MAP的相关知识。

 

最大后验概率估计

 

最大似然估计是求参数theta, 使似然函数p(x0|theta)最大。最大后验概率估计则是想求theta使得p(x0|theta)p(theta)最大。

 

求得的theta不单单让似然函数大,theta自己出现的先验概率也得大。(这有点像正则化里加惩罚项的思想,不过正则化里是利用加法,而MAP里是利用乘法)

 

MAP其实是在最大化p(theta|x0)=p(x0|theta)p(theta)/p(x0),不过因为x0是确定的(即投出的“反正正正正反正

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 
标签:

ai

算法岗

分类: 人工智能

 

http://www.paxononline.com/weixin_42137700/article/details/81628028

 

首先,本文不是为了增加大家的焦虑感,而是站在一名学生的角度聊聊找AI算法岗位的那些事儿(不喜请喷)。

熟悉Amusi的同学应该知道,Amusi 是一名十八线过气211院校的研二学生。因此有幸成为秋招大军的一员。原本想着秋招完,拿到不错的Offer,再来写篇文章来总结的,但随着指针在转,越发觉得写一篇相关文章很重要。

 

这里先申明一下,AI算法工程师范围很大,细分一下:深度学习算法工程师,机器学习算法工程师,计算机视觉算法工程师,自然语言处理算法工程师等等。因为范围很大,虽然使用AI算法工程师这个名称不严谨,但希望大家谅解。

 

如果你问我现在对秋招是什么感受?我的回复是:努力努力再努力。因为秋招的形式很严峻,特别是AI 算法工程师方面的岗位。就目前的经验来说,满足985硕士/博士、大厂实习经验、知名实验室、顶级会议/顶级期刊中任意一项要求的同学,找BAT等大厂或者独角兽的一般部门的算法工程师的门槛问题解决了。什么叫门槛?这里指的是筛简历;什么叫一般部门?这里指非重点实

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 
标签:

过拟合

欠拟合

分类: 人工智能

 

http://www.paxononline.com/weixin_42137700/article/details/81627965

 

编译:Richard Yang 来源:Towards Data Science

 

在正式讲这两个概念之前我们先来看一个故事:假设你想要习英语但之前对英语一无所知,不过曾听说过莎士比亚是一个位伟大的英国作家。你想要学英语的话,当然是将自己泡在一个图书馆中,背诵他的相关作品,用他的作品学习英语。一年的学习结束后,你走出图书馆,来到了纽约,并向你看到的第一个人打了声招呼:“嗨,愿光明与你同在!” 那人用奇怪的眼光看着你,嘴里嘟囔着“神经病”。你故作镇定地又试了一遍:“亲爱的夫人,今天是何等的优雅呢?” 你再次收获了失败,还把那个人吓跑了。当你三次尝试都失败后,你心烦意乱的说道:“啊,此乃何等之遗憾,何等之悲伤!”确实很遗憾,因为你犯下了一个建模当中最基础的错误之一:对训练集的过度拟合。

 

在数据科学学科中, 过度拟合(overfit)模型被解释为一个从训练集(training set)中得到了高方差(variance)和低偏差(bias),导致其在测试数据中得到低泛化(generalization)的模型。为了更好地理解这个复杂的定

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 
(2018-08-13 13:29)
标签:

信息熵

分类: 人工智能

通俗理解信息熵

 

http://www.paxononline.com/weixin_42137700/article/details/81627952

 

1信息熵的公式

 

先抛出信息熵公式如下:

 

阅读  ┆ 评论  ┆ 转载 ┆ 收藏 
标签:

转载

分类: 人工智能

本文为我在格隆汇的演讲:

很高兴有这个机会来格隆汇和大家交流,我知道大家今天想听的不是技术,是怎么赚钱,所以在我的演讲过程当中,至少会讲到有三个如何赚钱的机会,所以大家要仔细听。

如果你们在2008年,2009年创新工场成立的时候,我们当时就告诉全世界移动互联的时代将来临,安卓将是最重要的手机操作系统。那时候,大多数人,不相信我们,也不听我们,但是少数投资我们的,比如说在座的徐小平先生,就看到移动互联的爆发

阅读  ┆ 评论  ┆ 转载原文 ┆ 收藏 
标签:

转载

导语:达沃斯时受邀与MIT Media Lab(麻省理工学院媒体实验室)负责人伊藤穰一(Joi Ito)在达沃斯世界经济论坛闭幕日的人工智能焦点论坛上探讨人工智能,本文由创新工场工友根据现场录音整理。

扩展视频:接受BBC专访,阐述创新工场的投资战略


?对谈嘉宾:

 

阅读  ┆ 评论  ┆ 转载原文 ┆ 收藏 
  

金百利娱乐JBLKBLBLOG意见反馈留言板 电话:4006900000 提示音后按1键(按当地市话标准计费) 欢迎批评指正

金百利娱乐JBLKBL简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 会员注册 | 产品答疑

金百利娱乐JBLKBL公司 版权所有