高速连接器确保数据中心的传输速度和效率
在当今环境中,将数据访问外包(通过云)、同时持续支持带宽密集型应用(例如视频)的趋势使数据中心的重要性不断上升。 数据中心的管理人员希望尽可能提高数据中心架构的性能,甚至还深入到了连接器层面。为最大限度地提高数据中心的速度和效率,网络设备制造商在选择输入/输出 (I/O) 连接器时需要考虑五大关键标准 - 灵活性、成本、热管理、密度和电气性能。他们还必须在其设备的背板和电源连接器中优化这五大标准。
灵活性:
在选择各应用需要的电缆类型时,I/O 连接器应提供最大灵活性。例如,假设一个机架中所有的服务器都连接到一个位于机柜顶端的交换机。这些连接中绝大多数都相当短(通常不超过 3 米),因此使用铜质电缆则较为便宜。不过还有部分连接可能较长,需要使用光缆。制造商使用 SFP+、SFP28、QSFP+ 或 QSFP28 等插拔式连接器,数据中心运营商就能够选择合适的电缆来满足特定的需求
成本:
以行业趋势为基础,服务器的互连速度可达 1 Gbps,不过在某些更严苛的应用中,服务器现已支持 10 Gbps 的速度,甚至能达到 40 Gbps。虽然 40 Gbps 的连接已经存在多年,不过最近的趋势却是转向 25 Gbps 的解决方案。40 Gbps 的解决方案是通过 4 个分别为 10 Gbps 的数据通道完成的,因此制造商可以制造能够处理这些数据、打散分至 4 个通道然后将数据流重新集合为 40 Gbps 的“智能”设备。相反,25 Gbps 解决方案使用的是单一通道,因此其架空线路较低,更容易在服务器和交换机中实施。
热管理:
如果您使用的是铜质电缆组件,并将其替换为光纤模块,则信号会从电子信号转换为光信号,因此该模块现在正耗散功率。如果服务器上只有一两个互连,则这一点可能并不那么重要,但对于最多可存在 48 个互连的交换机,这就是一个重要因素。因为除了内部元件已产生的热能,现在设备又多了 48 个小型加热器,因此热管理变得极其重要。
使用光学互连后,制造商需要进行优化以获得新的动力,并需要能耗散更少功率的光纤模块以及有助于管理热负载的 I/O 连接器。
密度:
在交换机上,连接器必须尽可能小,以便提供最高的 I/O 密度,同时仍能够容纳带上述热负载的光纤模块。客户想要在一个 1RU 机箱中实现 24 个、48 个甚至更多的连接。行业对此的响应之一就是推出了新的 μQSFP 连接器(microQSFP)。现在,行业协会正在定义这一新的连接器标准,不仅要实现更高的密度,还有具备更出色的热管理,从而实现每个 1RU 机箱中最高 72 个端口。
电气性能:
虽然标准针对是的互连信道的整体性能(主机+ 连接器 + 电缆组件等的损耗),但是连接器制造商也可以通过增强信号完整性性能使其产品脱颖而出。例如,性能更佳的连接器或电缆组件可为设备设计师留有更多的设计裕度,以实现更长的信道段或更低的 PCB 材料成本。如今,交付的连接器带有多个 25 Gbps 对,适用于 25、100 和 400 Gbps 的应用,同时,带 50 Gbps 对的连接器也正在开发中或已上市。
由于设备需要支持更高的 I/O 性能密度,其背板也必须支持不断提高的聚合数据速率。利用支持 24 或 48 个 100 Gigabit 端口的线卡,背板连接器需要具有足够的容量。设备制造商需要下一代背板连接器,每差分线对能够支持 10 Gbps、25 Gbps、50 Gbps 以及更高的带宽。
事实上,背板是设备设计师考虑的第一要素。他们要将设备出售给大型的网络提供商,这些提供商希望设备能够使用尽可能长的时间。如果他们能够设计出一种背板机箱,不仅支持 10 Gbps 的第一代线卡,还支持可插入同一机箱的 25 Gbps 第二代线卡,以及随后的 50 Gbps、100 Gbps 线卡,那么这一设备就可以长期保留在数据中心,而需要更换的只有线卡而已。
电源结构:
电源输送架构也是设备开发工程师关注的因素。如前所述,更高的带宽和更高的 I/O 密度导致了更高的电源要求。连接器供应商以更高的密度和更低的电源连接器系统损耗(压降)将这些电源架构应用于汇流条、背板或电缆电源输送架构。
连接器是数据中心设备设计中的重要一环。通过使用以上标准,网络设备制造商可对其产品的效率和性能产生显著的影响。最新一代的电连接器使设备开发者能够满足这个高度连通的世界一项项具有挑战性的要求。
Article by
Nathan Tracy
灵活性:
在选择各应用需要的电缆类型时,I/O 连接器应提供最大灵活性。例如,假设一个机架中所有的服务器都连接到一个位于机柜顶端的交换机。这些连接中绝大多数都相当短(通常不超过 3 米),因此使用铜质电缆则较为便宜。不过还有部分连接可能较长,需要使用光缆。制造商使用 SFP+、SFP28、QSFP+ 或 QSFP28 等插拔式连接器,数据中心运营商就能够选择合适的电缆来满足特定的需求
成本:
以行业趋势为基础,服务器的互连速度可达 1 Gbps,不过在某些更严苛的应用中,服务器现已支持 10 Gbps 的速度,甚至能达到 40 Gbps。虽然 40 Gbps 的连接已经存在多年,不过最近的趋势却是转向 25 Gbps 的解决方案。40 Gbps 的解决方案是通过 4 个分别为 10 Gbps 的数据通道完成的,因此制造商可以制造能够处理这些数据、打散分至 4 个通道然后将数据流重新集合为 40 Gbps 的“智能”设备。相反,25 Gbps 解决方案使用的是单一通道,因此其架空线路较低,更容易在服务器和交换机中实施。
热管理:
如果您使用的是铜质电缆组件,并将其替换为光纤模块,则信号会从电子信号转换为光信号,因此该模块现在正耗散功率。如果服务器上只有一两个互连,则这一点可能并不那么重要,但对于最多可存在 48 个互连的交换机,这就是一个重要因素。因为除了内部元件已产生的热能,现在设备又多了 48 个小型加热器,因此热管理变得极其重要。
使用光学互连后,制造商需要进行优化以获得新的动力,并需要能耗散更少功率的光纤模块以及有助于管理热负载的 I/O 连接器。
密度:
在交换机上,连接器必须尽可能小,以便提供最高的 I/O 密度,同时仍能够容纳带上述热负载的光纤模块。客户想要在一个 1RU 机箱中实现 24 个、48 个甚至更多的连接。行业对此的响应之一就是推出了新的 μQSFP 连接器(microQSFP)。现在,行业协会正在定义这一新的连接器标准,不仅要实现更高的密度,还有具备更出色的热管理,从而实现每个 1RU 机箱中最高 72 个端口。
电气性能:
虽然标准针对是的互连信道的整体性能(主机+ 连接器 + 电缆组件等的损耗),但是连接器制造商也可以通过增强信号完整性性能使其产品脱颖而出。例如,性能更佳的连接器或电缆组件可为设备设计师留有更多的设计裕度,以实现更长的信道段或更低的 PCB 材料成本。如今,交付的连接器带有多个 25 Gbps 对,适用于 25、100 和 400 Gbps 的应用,同时,带 50 Gbps 对的连接器也正在开发中或已上市。
由于设备需要支持更高的 I/O 性能密度,其背板也必须支持不断提高的聚合数据速率。利用支持 24 或 48 个 100 Gigabit 端口的线卡,背板连接器需要具有足够的容量。设备制造商需要下一代背板连接器,每差分线对能够支持 10 Gbps、25 Gbps、50 Gbps 以及更高的带宽。
事实上,背板是设备设计师考虑的第一要素。他们要将设备出售给大型的网络提供商,这些提供商希望设备能够使用尽可能长的时间。如果他们能够设计出一种背板机箱,不仅支持 10 Gbps 的第一代线卡,还支持可插入同一机箱的 25 Gbps 第二代线卡,以及随后的 50 Gbps、100 Gbps 线卡,那么这一设备就可以长期保留在数据中心,而需要更换的只有线卡而已。
电源结构:
电源输送架构也是设备开发工程师关注的因素。如前所述,更高的带宽和更高的 I/O 密度导致了更高的电源要求。连接器供应商以更高的密度和更低的电源连接器系统损耗(压降)将这些电源架构应用于汇流条、背板或电缆电源输送架构。
连接器是数据中心设备设计中的重要一环。通过使用以上标准,网络设备制造商可对其产品的效率和性能产生显著的影响。最新一代的电连接器使设备开发者能够满足这个高度连通的世界一项项具有挑战性的要求。
Article by
Nathan Tracy