第320章 AI芯片(2/2)

而随着书写,林奇的板书笔法也越发飘忽——

训练后的神经网络以标签或预估值对数据分类,此乃推理。

因此每个神经元都需要进行计算。

输入数据乘以权重,表示信号强度。

结果相加聚合神经元状态。

使用激活函数调节神经元参数活动。

如此一步接着一步,连绵不绝。

按理说,三个输入而只有两个神经元与一个单层神经网络的话,权重与输入便要六次乘法……

如此一来,矩阵里的乘片与取片,都需要大量的cpu周期与内存,而tpu这种芯片,便是为了减轻这种负荷而生。

林奇忍不住皱眉看了眼周围。

某种程度而言,计算量的负荷和电网的负荷很类似,最大的负荷便决定了整体的高峰所在(计算难度),也决定了接下来他完成“ai芯片”后所能够到达的高峰。

而供与求有需要平衡,不然的话,第一道崩溃的便是自身。

只是他很快又重新被tpu的构架所吸引而痴迷起来。

只有深入一个项目,才能彻底体会他的乐趣。

因此懂是第一步环节。

这也是棋类活动里,容易入门的象棋比起围棋受众要光,而五子棋又比起象棋还有光。

林奇越看,越发忍不住啧啧称奇。

这tpu的架构居然采用了量子技术,在预设的最大值和最小值与八位整数之间的任意值的近似过程里,tpu居然包含了足足六万五千五百三十六个八位整数乘法器,直接将32位或者16位的计算压缩成为8位。

实现了曲线的离散化。

完美地减少了神经网络预测的成本。

第二点,也是更关键的。

正如林奇最初所推崇的硬件。

tpu芯片直接封装了种种神经网络计算工具。

诸如矩阵乘法单元,统一缓冲区,激活单元等,它们以后十数个高级指令组成,集中完成神经网络推理所需要的数学计算。

同时它又采用了典型的risc处理器为简单计算提供指令。