AI:TPU是如何工作的?

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

接前回AI:冯诺依曼瓶颈AI:神经网络是如何工作的?AI:GPU是如何工作的?,本文介绍 TPU 的工作原理

本文将翻译What makes TPUs fine-tuned for deep learning? | Google Cloud Blog中的部分内容。

当谷歌设计 TPU 时,他们做了一个 DSA(特定领域的架构)。也就是说,我们把它设计成了一个专门用于神经网络工作的矩阵处理器,而没有设计一个通用的处理器。TPU 不能运行文字处理软件、不能控制火箭引擎、也不能执行银行交易,但它可以以惊人的速度处理神经网络的大量乘法和加法运算,而消耗的功率和占用的访存却小得多。

Read more

AI:GPU是如何工作的?

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

接前回AI:冯诺依曼瓶颈AI:神经网络是如何工作的?,本文介绍GPU 的工作原理

本文将翻译What makes TPUs fine-tuned for deep learning? | Google Cloud Blog中的部分内容。

为了获得比 CPU 更高的吞吐量,GPU 使用了一个简单的策略:何不在一个处理器中配上几千个 ALU?当下的 GPU 通常在单个处理器中配备了 2,500–5,000 个 ALU,这就意味着可以同时执行几千个乘法和加法运算。

Read more

AI:神经网络是如何工作的?

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

AI:神经网络是如何工作的?

让我们看看机器学习需要什么样的计算,特别是神经网络。

本文将翻译What makes TPUs fine-tuned for deep learning? | Google Cloud Blog中的部分内容。

Let’s see what kind of calculation is required for machine learning—specifically, neural networks.

让我们看看机器学习需要什么样的计算,特别是神经网络。

Read more

AI:冯诺依曼瓶颈

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

什么是冯诺依曼瓶颈?CPU为什么不适宜做深度学习中的运算?

本文将翻译What makes TPUs fine-tuned for deep learning? | Google Cloud Blog中的部分内容。

The CPU is a general purpose processor based on the von Neumann architecture. That means a CPU works with software and memory, like this:

CPU 是基于冯诺依曼架构的通用处理器。这也就是说 CPU 与软件和内存一起工作。

Read more

AI:DALL·E Mini,从文本生成图像

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

今天看到一个有意思的库,各位读者可以去体验一下子 AI 的感觉。

这个网站 craiyon.com 会根据你的输入,自动生成图像。

确实,是你免费就能玩的。还挺有意思,仿佛就是梦境的样子。

Read more

AI:空间可分离卷积,spatial separable convolutions

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

AI:空间可分离卷积,,Spatial separable convolutions

上周四介绍了《经典卷积,Normal_convolution》,卷积操作为多维数据的特征提取提供了崭新的方向,也由此诞生了诸多的好成果。但繁重的乘加运算给该算法的普及增添了难度。

Read more

经典卷积,Normal_convolution

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

经典卷积,Normal convolution

今天简介图像上的经典卷积操作。使用“经典”是为了和下周续文的其他卷积作区分。参考

Read more

Plate Notation

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

在贝叶斯推理中,plate notation 被用作图模型中变量的重复操作。

plate notation

Read more

repo:机器学习里的数学

文章来自微信公众号“科文路”,欢迎关注、互动。转发须注明出处。

明天又要开工啦!

看到一个机器学习领域的数学学习资料合集。

粗略扫了一下,差不多是业内有头有脸的资料了。

Read more