手机芯片回收有什么用-什么时候ram会移动到cpu上

手机芯片回收有什么用-什么时候ram会移动到cpu上

手机芯片回收有什么用 -什么时候ram会移动到cpu上
手机芯片回收有什么用 回收多少钱一克?平泽公司技术好,提炼不浪费。那么相对来说出价就会高很多。

所以,在过去,有一种被称为\”圣杯\”(Holy Grail)的产品正在被人们寻找,这种产品被称为\”晶片级集成\”。数十亿美元(我们说的是20世纪80年代的数十亿美元,不是后 facebook 时代的数十亿美元)被花掉了,而且一无所获。尽管如此,我们还是从中学到了一些有趣的东西,其中大部分导致了现代版的超级计算机,它们都是分布式存储器。当你开始尝试扩大规模时,往骰子里塞更多的东西,你会遇到三个真正的问题。一个是路面,一个是通量,一个是热量。所有这些最终都会扼杀你生产一台拥有制造高性能计算机所需要的所有东西的模具的能力。(正如其他人所指出的,对于需要嵌入式处理器的低性能用途,
SOC
组件是无处不在的,但即使是它们通常也有一些外部组件)。结果是这样的: 如果你构建了一个有着非常非常好的内存和 i/o 路径的芯片,如果你在上下文切换之间堆栈了足够多的缓存以避免绝大多数执行过程中的明显遗漏(无论如何都会炸毁你的缓存) ,那么把设计分割成不共享一个模块的组件就更加高效了。这也意味着收益率大幅上升。看看这个: 英特尔基本上构建了同样的芯片,并且根据他们如何淘汰,以 i3,i5,i7,Xeon 等形式出售。内存也是这样构建的——芯片的性能越高卖得越好,而那些没有打包成低性能单元的芯片卖得更低。现在,把这个应用到所有一对一的骰子上。如果内存很棒,但是 CPU 很普通怎么办?或者如果两个 CPU 内核很棒,两个一般,但是内存很差?如果你把它们绑得太紧,你就失去了以某种方式将它们分类的所有选择权,而这种方式又能保留经济收益。理论上说,这是个好主意。在实践中,硅片中量子化学的变幻莫测和模具制造过程的不精确意味着它根本不实用。

手机芯片回收有什么用-什么时候ram会移动到cpu上

是这样的没有更新,大部分的答案感兴趣的ram缓存,而不是我在这里给你一个有趣的更新。

看起来这个已经有一段时间没有更新了,大多数的答案都是关于缓存而不是内存的,所以我在这里给你一个有趣的更新。这是今年发生的事。看看 HBM。Amd 公司与一家公司合作,生产所谓的高带宽内存,内置图形存储器,位于 GPU 插接器上。这使得通信速度大幅提高,因为存储器和 GPU 之间有物理连接。这也降低了每个性能点的总体电能消耗。这确实是一项了不起的新技术。目前,这项技术只能在图形处理单元(gpu)上使用,但是这项技术最终能够跳转到 cpu 上是有意义的。目前的限制是只有4gb 的 HBM 对 v1死亡,但明年将有增加到8gb 和 nVidia 将使用的技术以及。AMD 的站点提到 HBM 可以在 gpu 和 cpu 上使用。他们一定会在文章中详细阐述这一点,因此在这一点上,至少 AMD 应该在不久的将来开始生产具有大量内置 RAM 的 cpu 是合情合理的。

RAM 已经处于死亡状态,但不是像其他问题那样。一般来说 DRAM 不能嵌入在芯片上,因为制造 DRAM 需要不同的制造过程,而不是为制造逻辑而设计的过程。现在已经开发出了 DRAM 技术,可以嵌入到与标准逻辑相同的芯片上。不出所料,这被称为嵌入式 RAM (或 eDRAM) : IBM 已经在一些大众市场产品中实现了 eDRAM,比如 Power7、 xbox360、任天堂GameCube、 Wii 和 Wii u。

记忆已经在CPU上死
的形式CPU缓存(例L1、L2等)。

在某种程度上,RAM 已经存在于 cpu 上。它以 SRAM 的形式存在,构成了 cpu 缓存,并且可以说构成了 cpu 寄存器。如果你指的是 DRAM,那么实际上它不在实际的 cpu 上是有原因的。看这个:
866dcf6eeedbb8ccc
这些都是记忆细胞。这里我们感兴趣的是图 d 和图 e,它们都是 DRAM。一个 DRAM 存储单元包含两个关键元件: 一个晶体管和一个电容器(它允许它的小尺寸对比一个6晶体管 SRAM 单元)。

这是一个好问题。

你首先需要明白我们为什么要把这些芯片集成在芯片上。通过使这些组件(如内存)更接近,我们可以以更低的访问它们。通过将零件放在芯片上,这样的硅片面积比制造一个完全独立的芯片要便宜。然而,在某种程度上,你的逻辑是如此之多,以至于你的死亡变得非常巨大。一家芯片工厂将很难以足够高的产量生产这些部件以获得利润。例如,一块1000美元的芯片在手机上就不会成功。有一些技巧,如堆叠小模具(TSV,或通过硅通孔)和堆叠包装(封装在封装) ,将允许你产生更小的高产量模具。您还可以根据性能对组件进行排序,并将它们适当地组合在一起。堆叠时的一个常见应用是将存储芯片与 CPU 芯片配对。然而,请注意堆叠技术有其自身的制造和可靠性问题(制造成本、堆叠模具的热问题、堆叠芯片之间的调试问题等)。这是一个在规模、性能、成本和决策(包括在芯片上、堆栈与否等等)之间进行仔细平衡的行为,所有这些都需要在产品开发周期的早期阶段决定。英特尔的 Crystalwell 芯片是一个多芯片模块,包含一个大型的 eDRAM 芯片和一个基于 Haswell 的处理器。

答案很简单,半导体过程产生随机逻辑(cpu)和DRAM细胞在很大程度上是不相容的。

它已经存在了将近四十年了。见
英特尔 MCS-48
。这个强大的微控制器配备了高达64字节的内存,尽管后来的版本已经升级到了整整1k。这个处理器为诸如 IBM PC 键盘、 Korg 61合成器和大约100万个微波炉定时器等高端计算设备提供了动力。

英特尔已经有128 mb与他们的一些芯片eDRAM Haswell芯片。

这种存在,被称为 SoC 或 bga 样式。对于像手机和平板电脑这样的设备,通常使用 LPDDR2/3,处理器和 PCH 优化。 d67f846f5fef4190c90e5
更多:
Intel 的 Core i7-4770K 和4950hq‘ well’处理器审查 Intel 的 br-br-dram 显示在野外

好吧,简单的答案是,人们一直在做系统级芯片很长时间了。

好吧,总有一些记忆被称为 L1。L2,L3,它们被称为缓存,存在于 CPU 芯片中。随机存取存储器是板上或单独焊接的东西。要注意的一点是。距离内存消失(从 CPU)较慢的 i/o 变成和有。在接下来的几年里,目前和现在,GPU 应该是独立和专用的,这就是 PC 的组装方式。但是 AMD 过去带来的概念是令人敬畏的,因为他们将 CPU + GPU 注入到单晶片中。尽管如此(a 系列)的笔记本电脑和台式机从 AMD 被认为是好的游戏 GPU 的主要用于图形和游戏钻机!所以现在,比如说在未来5年左右,我不认为会有一个单一的硅晶片同时适用于 CPU 和 GPU。(请注意,GPU 被称为 VRAM 或 RAM)。两者都是独立的,可能改变的是芯片尺寸的平版印刷术,也就是几何形状。比如低于18纳米。)

增加李Bratina
的答案。

尽管潜在的热问题,我已经为此争论多年了。在设计 CPU 时,扩展模具以保存最大可寻址存储器。事实上,考虑到 AMD 之前对片上冗余的研究,增加了
更多的
内存,以便允许未来的故障由一个单独的内存控制器管理器来处理(就像 Compact Flash 中的磨损平衡一样)。在90年代\”奔腾分裂\”之前,当 cpu 之间的引脚相互兼容时,你可以按规格购买 MoBo,然后从 Intel、 AMD 或 Cyrix 中进行选择。由于 Cyrix 的分裂(和消失) ,在选择板子的时候你需要一个 CPU。当我发现我有一个可以处理64gb 内存的芯片,但是主板只支持16gb 时,我真的很生气。现在,我只购买那些 CPU 已经安装在 MoBo 上的组合机,我只依靠 MoBo 的内存规格。我有两个 GB/AMD 板,支持32gb。我甚至没有费心去看看 CPU 是否真的能够处理更多的问题。他们一起工作。他们一起做过测试。如果其中一个失败了,我不会浪费时间去弄清楚它是 CPU 还是 MoBo,只要屈服于\”一次性\”,购买一个替换组合。当然可以想象,我们可以拥有一台\”单芯片\”计算机,在这台计算机上,MoBo 的唯一目的就是将芯片的引脚变成可访问的连接器(、键盘等)。超级芯片的问题在于可用性。如果出现故障,你必须更换整个芯片。如果只有3美元,那么世界上一切都是好的。如果是3000.00美元,就不在消费者范围之内。我提到的内置冗余对于 RAM 来说很容易实现,但是否会复制所有的东西(、 SSD、 USB 等等)呢?这将变得成本过高。超级芯片也阻碍了第三方的发展。nVidia 因未能发布驱动程序所需的信息而在 Linux 世界遭到严厉抨击。如果所有的变体技术都集中在一个芯片上,那么 AMD 或英特尔是否会生产客户规格的超级芯片,有些是 Radeon 的,有些是 nVidia 的?这实际上会使当前的组件收集和匹配游戏更加困难,而不是简单。虽然 DRAM 存储器的结构是基于电容而不是基于晶体管的说法是正确的,但是在与 CPU 隔开几毫米的同一片晶片上制造内存仍然是有意义的,而不是当前测量的整厘米的距离。它将消除当前芯片设计上的200多个插脚,而且我相信,AMD 可以通过尽快实现这一功能,向前跨出一步——内置的自检电源启动和重新设置有缺陷的\”单元\”已经完成。

DRAM是在既生产过程在soc在performance-optimized流程生产。

我们已经做了,它叫做\”缓存\”。把东西放到模具上的主要问题是产量。比如说,你拿着晶圆饼,上面有10个尘埃颗粒。在完成所有的过程之后,你很可能得到了10个无法使用的模具。现在,如果你的晶圆片有200片死亡,那就是5% 的废弃物。如果你的晶圆片有20个缺口,那就是50% 。也许少一点,因为也许一个死者吸收了两个尘埃颗粒,但你得到的图片。所以,你把设计分成尽可能小的模块,同时仍然达到你的性能目标,并把它们粘在芯片外壳里。

的时候,如果有的话,RAM转移到CPU会死吗?

我的猜测是,基于 STT-MRAM 的技术将很快允许在4-7年内实现一些大得惊人的 LLC (最后一级缓存)。再加上低成本、高密度的新兴非挥发性存储器(如 Optane 或 ReRAM) ,它可能会导致 DRAM DIMM 消失!

CPU和内存和输入输出电路通常被称作SoC和Webysther Nunes说
斯科特·韦尔奇

Micha?成立

已经提到了 Cache,但是问题所在的形式的内存也进入了打包。高带宽存储器(HBM)现在可以通过载波和硅通孔(TSVs)在 FPGA 封装中使用。这是不完全相同的模具,但表明这种集成是非常接近的可能性和成本效益的消费产品。参见\” Xilinx HBM 白皮书\”

已经有其他人指出系统芯片包含处理器,胶水逻辑、记忆甚至图形。

几十年前-这叫做\”缓存记忆\”。这种情况也发生在集成的 CPU/RAM/IO 设备上,这些设备被用作\”控制器\”,但是这些设备往往是\”低性能\”设备——比如\”智能手机\”芯片中的 CPU ——而且即使是这样,大部分的 RAM 也不在 CPU/etc 上,因为空间的原因而自身死亡。主要的问题是它不会发生在主流和高性能的 cpu 上,这有几个原因——但主要是由于在 DIE 上没有足够的空间、 POWER 的限制和 HEAT 的限制。

更新6小时后:
这是一篇文章。

有一个内存放在 CPU 芯片上,叫做高速缓存。只是没有太多。内存很大,而且会产生热量。现在没有空间把内存放在 CPU 上,即使我们这样做了,也会产生太多的热量。不过,这种情况在未来可能会改变。另一个原因是,它允许用户切换他们需要的 RAM 数量,但是通过把 RAM 放在离 CPU 很近的地方,数据不需要传输那么远。

没有技术限制为什么内存不能驻留在死去。

在这种情况下,\”为什么英特尔不做 x\”是一个轻描淡写的说法。当英特尔的工程师设计一个 CPU 时,他们既有晶体管预算,也有电源预算。如果把他们的二级缓存扩大到1gb,这两个预算都会受到冲击。首先,
晶体管
:
l2缓存通常由一种叫 SRAM (静态 RAM)的存储器组成。这个内存可以运行得非常快,但是有一个显著的缺点,就是它的密度不是很大。这里有一个图表解释我的意思:
SRAM 比其他任何东西都大,因此每位成本很高。建立一个1gb 的 SRAM 池是不可行的。大多数 SRAM 每比特使用6个晶体管,所以一个1gb 的 SRAM 池将消耗超过510亿个晶体管,这就忽略了任何寻址或节能电路。相比之下,即使是英特尔的高端处理器(包括缓存和所有内容)也不会超过100亿个晶体管。接下来,SRAM 并不一定需要电源。考虑到它的异步特性,它实际上可以是相当低功耗的。然而,在速度缓存预计将运行,电力消耗将通过屋顶。
不要引用我的话,但是我记得我读到过 CPU 缓存占处理器动态功耗的一半。当然,这是针对当前的小型缓存。我们不可能在这种速度下运行1gb 的缓存,而不会导致我们的电力预算爆炸。第三,实用性: 当工程师设计 CPU 缓存时,他们的想法是有一个足够好的命中率,这样他们才能有效,而不会太慢而影响操作频率。当您双倍缓存大小时,您将增加大约
sqrt {2}
的缓存。1gb 的缓存速度太慢,无疑会降低核心本身的速度,或者干脆证明是一种浪费。此外,考虑到缓存大小和命中率之间的非线性关系,缓存本身不太可能更加精确。为了提高缓存命中率,你已经增加了许多数量级的,并且花费了数十亿上百亿的晶体管,最多只比标准的 l2工作负载好几个百分点(最多两位数)。的确,这是资源的浪费。另外,还有一个关于缓存级别的提示: 缓存被精确地划分为多个级别,因为你不能同时拥有一个大缓存和一个快速缓存。L2主要作为小 l1的备份,因此它仍然需要相对较快的(低于20个周期)。由于拥有如此大的 l2缓存,手机芯片回收有什么用 最新价格。任何 l1错过都将受到更大的惩罚: 平均内存访问甚至可能比较小的缓存下降。不过,有一种方法可以实现大缓存: eDRAM。Intel 和 IBM 以前都在 cpu 上使用过 eDRAM 作为缓存。但顾名思义,它们使用 DRAM,而不是 SRAM。动态随机存取存储器(DRAM)比 SRAM 慢得多,但密度要高得多。英特尔公司的 Crystal Well 使用 eDRAM 作为缓存,可以提供高达128 MB 的内存。IBM 拥有更多(数百 MB)。图片来自 Anandtech
,右边是 eDRAM。但这不是 l2缓存。它通常用于有限责任公司。也就是 l3或 L4。这些高速缓存本应更慢但更大,所以一个 eDRAM 解决方案可以做到这一点。这些缓存速度不是很快,但是它们仍然比主 RAM 快得多,而且实现起来成本也低得多。因此,当使用大型数据集时,它们可以帮助提高性能。

他们不是。

是的,我以前也这样做过。当我在英特尔工作时,一个刚从晶圆厂出来的新设计处理器无法访问任何内存。我已经为这种情况做好了准备,并构建了一个只能使用缓存内存的特殊 c 编程框架。我不能详细说明如何做到这一点,因为它可能会暴露一些英特尔的秘密。在编程方面,实际上需要花费大量的内存。你实际上可以做很多事情,在512千字节内编写复杂的软件。我第一次运行的软件是找到前1万个素数的最后一个数字,然后把它放在一个特定的内存位置(虚拟屏手机芯片回收有什么用 快速出手变现。幕)。几个小时后,我需要做的就是将我从新设计的 CPU 结果中得到的数字与我笔记本电脑的结果进行比较。我能够向紧张的团队报告,他们已经在这个项目上花费了数百万个工时,CPU 的部分已经被测试了数十亿个时钟周期,并且得到了正确的结果!在这种环境下,人们可以编写复杂的象棋程序。一般来说,代码不能访问被标记为修改/排他状态的缓存内存之外的任何内存。在这种情况下,任何 cpu 周期都不会生成任何到内存控制器的事务。在更实际的应用中,将代码和数据保存在缓存范围内实际上是一种常用的编程优化技术,可以加速某些算法。它更快,因为访问缓存要比损坏内存快得多。当然,如果您在 microsoftwindows 或任何其他典型的操作系统中运行该算法,则需要使用主内存。所以,是的,这是可能的,但是需要一些英特尔的秘密武器。我不知道其他 CPU 制造商,如 AMD 有那些秘密的特点。

是的。

不行。你不想这么做的主要原因是 NAND 闪存比现在的 RAM 要慢得多。而且,RAM 不断地被重写。在消费级 ssd 中手机芯片回收有什么用 回收价格高于京东 闲鱼 转转 找靓机官网回收。 发现的平均 TLC (三电平细胞)闪存细胞只有1000个擦写周期。因此,当内存被用作 RAM 时,如果可以的话,内存可能会在几个小时内耗尽。不能使用的主要原因是 NAND 闪存是
块和面向页的
。您不能写入一个字节,甚至不能写入一个64位字(大多数 cpu 对 RAM 的读/写大小)。现在,对于内存,CPU 通常是写入或读取整个缓存线,每次256或512位,这在长期运行中比单个字节或单词更有效。但是一个典型的 NAND 闪存芯片的页面大小在2k 到16k 字节之间。如果你只想写一个字节,你必须读取整个页面,在 RAM 中改变那一个字节,然后用 Flash 再次将该页面写到另一个页面(通常通过一个叫做 Flash Translation Layer 的抽象层进行处理)。在某种程度上,内存必须被擦除,而这只能在块级别上发生。简而言之,NAND 闪存很难使用(所以如果是 NOR 闪存,那就不那么容易了) ,而且绝对不是 DRAM 控制器能处理的东西。此外,现代 DRAM 是完全同步的: 你的内存控制器/存储器是根据每个 DIMM 模块上的 SPD (序列式存在侦测) EEPROM 编程的 DRAM 芯片计时。允许的操作范围将远远超过 flash 读操作的速度,更不用说 flash 写操作的复杂性了。一种新型的 DIMM 即将问世,它结合了 DRAM、 Flash 和超级电容器,提供了一种类似 Flash 的 DRAM DIMM。在断电的情况下,RAM 中的内容将被移动到 Flash 中。当电源恢复时,闪存被读回 DRAM 中。不知道这是否会被消费者使用,目前它基本上是一个特殊的东西。然而,对于同时具有 DRAM (速度、随机访问、寿命)和 flash (非易失性)特性的新内存类,正在进行研究。实际上,很多这样的存储器正在研发中,甚至是有限的产品: FeRAM (铁电随机存取内存) ,MRAM (磁阻 RAM) ,PRAM (相位变化 RAM) ,NanoRAM (碳纳米管存储器) ,RRAM (基于忆阻器的电阻存储器)。英特尔推出了一款名为3 d Xpoint 内存的新产品,它的持续时间是 flash 的1000倍,虽然不如 DRAM 快,但是比 flash 更有竞争力。其中大多数都是为了同时取代 DRAM 和 HDD/SSD 存储,至少大部分时间是这样。但是这也需要软件的创新,来处理这样一个想法,从我们今天的观点来看,从逻辑上来说,永远不会下来。

\”如果我的内存比我更快的CPU吗?

有可能它会升温并变得不可靠,所以现在的一些主板会检测到这一点,并在 BIOS 中停止,然后给出一个这样的消息。有些人只是用空白屏幕发出一连串的哔哔声,然后停止。还有一些则继续启动,但是减慢整个系统时钟以适应 RAM 较慢的时钟。

你为什么认为有这么多内存会如此之大?

你应该熟悉特定组件的操作速度,它们会给你很多解释。让我们从内存-DDR 开始。DDR 的速度非常棘手,并且很容易用数字来操作。但是现在,比方说,正常速度是3200。这意味着数据被锁定在1600 GHz 的内存中。每个 DDR 的潜伏时间都以 CL 数字表示,例如18-38-38-49。这些数字是某些操作所需的时钟周期数(1600 GHz 或0.625 ns)。第一个数字表示读取下一行所需的时间-11.25 ns。这里有更多的信息:
内存计时-维基百科
在上述情况下内存在最好的情况下将需要11.25 ns,而在第二个最好的情况下35 ns,等等
如果 CPU 工作在3 GHz,如果我们假设是坏的一个与 IPC 1它将读取数据在0.333 ns。这是 DDR 提交数据速度的两倍。这就是为什么早期的 cpu 使用缓存的原因。缓存是非常快的内存,但没有 CPU 快!在过去(早期 PC 日子)缓存是在主板上,今天是 CPU 的一部分。如果你看 CPU 死亡,然后大同质区域缓存-大部分的 CPU 区域。现在的 cpu 有缓存,L1,L2,L3。英特尔在一些公司有 l4作为 eDRAM。无论如何,l1是最快和最小的。Ryzen 3xxx 每个内核只有64kb 的 L1,而英特尔是32/48kb。访问时间()为几个周期,cca 4。第二语言更慢更大。在 Ryzen 上是512kb,是12个周期。L3是最慢的,也是最大的。Ryzen 有16/32 MB 每 CCX (4核)和40周期的。即使用 l3访问数据也比 DDR 快。但是在 cpu 内部还有许多其他的缓存。苹果 m1增加了所有的缓存数倍去获得一些速度。现在苹果 m1的设计中,DDR 是 CPU 包的一部分。这是好事,也是坏事。例如,M1 mac 上的 DDR 是不可扩展的!或者,如果 DDR 出了问题,整个 PC (主板)就报废了。很好,因为 PC 更小,并且更短一点-更接近 CPU。这种方法主要应用于移动设备、手机和平板电脑。有许多平板电脑和笔记本电脑与焊接的 DDR 在主板上,但主要原因是这是价格。在谈到缓存时,我提到了 Intel 和它的 eDRAM。以前的 Intel cpu 有64/128 MB 的 eDRAM。Xeon Phi 有16gb 的容量,而老式的游戏机(PS2,XBox 360)只有4/10 MB。没有什么巨大的好处,所以被抛弃了。现在你看到了问题的答案。以 CPU 速度运行 DDR 是不可能的!只有内存(RAM)能够达到这样的速度是 SRAM (静态 RAM)用于 l1缓存(所有缓存)。而且 l1缓存大,价格昂贵,耗电量大。因此,64gb 的 l1缓存类似于内存将是巨大的!如此大的 l1缓存将如何影响性能取决于程序。需要大量内存的程序会更快,但大多数程序不会。就一点点。但价格将是巨大的。

手机芯片回收有什么用-什么时候ram会移动到cpu上

原创文章,作者:PZ回收,如若转载,请注明出处:https://www.pzgjs.com/20253.html

厂长电话
微信号

13027973222

微信二维码
微信二维码
返回顶部