Mellanox

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
Mellanox
Тип Дочерняя компания
Листинг на бирже NASDAQ: MLNX
Основание 1999
Упразднена 2020
Причина упразднения Поглощена Nvidia
Основатели Эяль Вальдман
Рони Ашури
Расположение  Израиль: Йокнеам-Илит[1]
Ключевые фигуры Эяль Вальдман (CEO)
Отрасль телекоммуникационное оборудование (МСОК2630)
Продукция Коммутаторы InfiniBand и Ethernet, сетевые адаптеры InfiniBand и Ethernet
Оборот $658 млн (2015)[2]; $463 млн (2014)[3]
Операционная прибыль $118,3 млн (2012)
Чистая прибыль $111,3 млн (2012)
Капитализация около $4 млрд (2018)
Число сотрудников 2,9 тыс. (март 2017)
Материнская компания NVidia
Сайт mellanox.com
Логотип Викисклада Медиафайлы на Викискладе
Здание Mellanox Technologies в Йокнеам-Илите.

Mellanox (Mellanox Technologies) — израильская компания, производитель телекоммуникационного оборудования, ключевой разработчик технологии InfiniBand. Основана в 1999 году, в 2019—2020 годы стала принадлежать корпорации Nvidia.

С 2011 года являлась единственным производителем оборудования для сетей InfiniBand, также выпускала высокоскоростное Ethernet-оборудование, в том числе с поддержкой технологии RoCE[англ.] (RDMA в сетях Ethernet) с фокусом на суперкомпьютерные лаборатории и крупные коммерческие центры обработки данных[4]. Линейка продукции включала сетевые адаптеры, коммутаторы, кабели, программное обеспечение, интегральные микросхемы.

Акции торговались на NASDAQ (тикер MLNX). Штаб-квартиры располагались в Саннивейле (Калифорния) и Йокнеаме (Израиль).

Основана бывшими руководителями Galileo Technology (приобретённой Marvell Technology Group в октябре 2000 года за эквивалент $2,7 млрд[5]) Eyal Waldman и Roni Ashuri. Изначально планировалось, что компания будет лишь производителем интегральных микросхем, но к 2009 году она стала поставлять полный ассортимент продуктов для организации сетей[6]. Компания собрала более $89 млн в трёх раундах венчурного финансирования, среди инвесторов: Raza Venture Management, Sequoia Capital, US Venture Partners, Bessemer Venture Partners, Bank of America Securities, China Development Investment Bank, Gemini Israel Funds, Jerusalem Global Ventures и Walden Israel Venture Capital. Среди стратегических инвесторов: Dell, IBM, JNI, Quanta Computer, Vitesse Semiconductor и Sun Microsystems.[7][8]

Акции компании были размещены на NASDAQ в 2007 году, по итогам размещения компания получила $102 млн и оценена в $0,5 млрд[9]. С 2010 года крупным инвестором компании стала корпорация Oracle, увеличившая свою долю до примерно 10 %[7], Oracle заявляла, что не планирует приобретать Mellanox и лишь использует технологии InfiniBand в своих линейках Exadata и Exalogic[10].

В 2010 году компания приобрела своего конкурента Voltaire за $218 млн[11][12]. 15 августа 2013 года Mellanox завершила поглощение изготовителя интегральных фотонных чипов Kotura за $82 млн; здания Kotura в Monterey Park (Калифорния) стали первым исследовательским центром Mellanox в США[13][14]. 4 июня 2013 года поглощена компания IPtronics — производитель лазеров VCSEL, драйверов для оптических модуляторов, массивов трансимпедансных усилителей[укр.] за $47,5 млн[14][15].

11 марта 2019 года было объявлено о покупке 100 % акций Mellanox компанией NVidia. Акции выкупаются по $125 за штуку, общая сумма сделки $6.9 млрд. Наряду с NVidia на поглощение Mellanox претендовали компании Microsoft, Intel и Xilinx, однако предложение Nvidia показалось акционерам Mellanox предпочтительным[16]. Сделка завершена 27 апреля 2020 года[17][18].

Mellanox не обладала собственными мощностями по изготовлению микросхем, работая по бесфабричной схеме[19], заказывая производство на сторонних фабриках, в частности, на TSMC[20].

В 2010 Reuters назвала Mellanox одним из основных производителей коммутаторов для дата-центров и высокопроизводительных вычислений, а технологию InfiniBand более быстрой и масштабируемой, чем альтернативные коммуникационные технологии[21]. Сходное мнение высказывал директор Oracle Ларри Эллисон[6].

Некоторые интегральные микросхемы[22]:

  • InfiniScale IV — чип коммутатора Infiniband на 36 портов QDR 4x (40 Гбит/с) или 12 портов QDR 12x (120 Гбит/с). Четвёртое поколение коммутаторов. Размер корпуса чипа 45 на 45 мм.
  • SwitchX (2011) — чип многопротокольного коммутатора с 36 портами FDR 4x Infiniband (56 Гбит/с) либо 64 портами 10G/20G Ethernet (144 трансивера, каждый со скоростью до 14 Гбит/с), обрабатывающий пакеты InfiniBand, Ethernet и Fibre Channel.[20] SwitchX — пятое поколение коммутационных чипов, изготовлен по 40 нм техпроцессу с 1.4 млрд транзисторов, размер корпуса чипа 45 на 45 мм.[20] Он развивает двухпротокольную архитектуру, ранее разработанную для чипов ConnectX (90 нм).[9]
  • SwitchX-2 (2012) — шестое поколение коммутаторов, до 36 портов FDR 4x Infiniband (56 Гбит/с) или 40G/56G Ethernet[23]
  • SwitchIB (2014) — седьмое поколение коммутаторов, до 36 портов QDR/FDR10/FDR/EDR 4x Infiniband (40, 41, 56 и 100 Гбит/с). Размер корпуса 53×53 мм.
  • SwitchIB-2 (конец 2015) — коммутатор Infiniband, 36 портов до 100 Гбит/с[24]
  • Quantum — 40 портовый коммутатор 200 Гбит/с HDR InfiniBand.[25]
  • Spectrum — коммутатор Ethernet, 50 и 100Gbit Ethernet, 28 нм TSMC. 32 порта 100 Гбит[26].
  • Spectrum-2 (2018) — коммутатор Ethernet, 32 порта 200Gbit Ethernet, либо 64 порта 100 Гбит[14][27]

Интегральные микросхемы компании для сетевых адаптеров (HBA)[28]:

  • ConnectX-2 (2009) — чип адаптера с одним или двумя портами Infiniband 4x SDR/DDR/QDR (10, 20 или 40 Гбит/с) или 10G Ethernet. Подключается по шине PCI Express 2.0 8x.[29]
  • ConnectX-3 (2011) — чип сетевого адаптера на один или два порта 10G/40Gbit Ethernet или Infiniband до FDR 4x (56 Гбит/с), с поддержкой виртуализации для VMware ESXi 5.0.[4][30][31]
  • ConnectX-4 (2014—2015) — чип сетевого адаптера на один или два порта 100Gbit Ethernet или Infiniband EDR 4x (100 Гбит/с)[32]. Также поддерживает все более медленные режимы Infiniband 4x. Подключается к шине PCI Express 3.0 16x.
    • ConnectX-4 Lx — чип сетевого адаптера Ethernet со скоростями 10, 25, 40, 50 Гбит. (два порта только для скоростей до 25)[26]
  • ConnectX-5 (2016) — чип сетевого адаптера на один или два порта 100Gbit Ethernet или Infiniband EDR 4x (100 Гбит/с). Дополнительно имеет встроенный коммутатор PCI-express с поддержкой поколения PCI express 4.0. Также позволяет строить сети размером до 4 узлов при использовании двухпортовых карт без внешних Infiniband коммутаторов[33][34]
  • ConnectX-6 (2017) — 200 Гбит/с HDR InfiniBand[35][36]
  • Bluefield (2017) — интегрированный контроллер, сочетающий 2 порта 100 Гбит/с, коммутатор PCI express (суммарно x32 gen 4.0) и до 16 ядер ARM Cortex-A72, реализует NVMe-oF[37][38].

Продукты Mellanox линейки InfiniBand широко применялись при создании вычислительных кластеров максимальной производительности. Значительная доля (более 40 %) суперкомпьютеров из рейтинга TOP500 использует Infiniband в качестве основной высокопроизводительной сети[39][40].

На 2011 год более четверти доходов Mellanox получала от двух крупных покупателей: Hewlett-Packard и IBM[41], ещё 2 % доходов обеспечивали заказы от Intel[42], также крупным покупателем продукции являлась корпорация Oracle (владевшая 10 % Mellanox)[43], применявшая Infiniband-коммутаторы и сетевые адаптеры Mellanox в том числе в программно-аппаратных комплексах Exadata, Exalogic, Exalytics, Big Data Appliance (с 2019 года перешли на коммутаторы Cisco с поддержкой RoCE, продолжив использовать адаптеры Mellanox).

Примечания

[править | править код]
  1. Mellanox office locations. Mellanox Technologies. Дата обращения: 17 января 2015. Архивировано из оригинала 11 декабря 2012 года.
  2. Mellanox Achieves Record Quarterly and Annual Revenue. Mellanox Technologies (2016). Дата обращения: 27 января 2016. Архивировано 29 января 2016 года.
  3. Corporate Overview. Mellanox Technologies (2015). Дата обращения: 29 октября 2011. Архивировано 5 августа 2013 года.
  4. 1 2 Amodio, Michelle On the Road with Mellanox Technologies. TMCnet (6 октября 2011). Дата обращения: 29 октября 2011. Архивировано 16 октября 2011 года.
  5. Marvell to acquire LAN-chip supplier Galileo for $2.7 billion in stock. eetimes (17 октября 2000). Дата обращения: 12 июня 2011. Архивировано из оригинала 13 июля 2012 года.
  6. 1 2 Ackerman, Gwen (2011-01-05). "Mellanox CEO Sees Sales Rising 10-Fold With Voltaire". Bloomberg. Архивировано 30 декабря 2011. Дата обращения: 29 октября 2011.
  7. 1 2 Tsipori, Tali Oracle acquires $11m more Mellanox shares. Globes (25 сентября 2011). Дата обращения: 29 октября 2011. Архивировано 11 октября 2011 года.
  8. Kovar, Joseph F. VC Money Continues To Drain Into InfiniBand: Mellanox Secures $56M. CRN (11 февраля 2002). Дата обращения: 29 октября 2011. Архивировано из оригинала 4 марта 2016 года.
  9. 1 2 Walko, John (2007-02-08). "Mellanox raises $102 million with IPO on Nasdaq". EE Times. Архивировано 16 марта 2012. Дата обращения: 29 октября 2011.
  10. Bagh, Carl Oracle buys 10 pct stake in Mellanox, will Dell, HP, IBM follow suit? International Business Times (29 октября 2010). Дата обращения: 29 октября 2011. Архивировано 12 ноября 2010 года.
  11. Morgan, Timothy Prickett (2010-11-29). "Mellanox gobbles up Voltaire for $218m". The Register. Архивировано 8 октября 2011. Дата обращения: 29 октября 2011.
  12. Stynes, Tess (2010-11-30). "Mellanox Agrees to Acquire Voltaire". The Wall Street Journal. Архивировано 24 мая 2012. Дата обращения: 29 октября 2011.
  13. "Mellanox Technologies, Ltd. Completes Acquisition of Kotura, Inc". Mellanox.com. 2013-08-15. Архивировано 2 февраля 2014. Дата обращения: 10 января 2014.
  14. 1 2 3 "Mellanox Trims Down To Reach For A Profitable $1 Billion" (англ.). NextPlatform. 2018-01-21. Архивировано 6 октября 2018. Дата обращения: 6 октября 2018.
  15. "Mellanox Technologies Ltd. Announces Definitive Agreement to Acquire IPtronics A/S". NASDAQ. Дата обращения: 4 июня 2013.
  16. Fitch, Asa (2019-03-11). "Nvidia to Acquire Mellanox, Its Biggest Deal Ever at Roughly $7 Billion". Wall Street Journal (англ.). Архивировано 11 марта 2019. Дата обращения: 11 марта 2019.
  17. "Nvidia завершила $7 млрд сделку по приобретению Mellanox" (неопр.). CNews. 2020-04-27. Архивировано 2 мая 2020. Дата обращения: 19 мая 2020.{{cite news}}: Википедия:Обслуживание CS1 (неизвестный язык) (ссылка)
  18. Tyler Clifford. Nvidia completes ‘homerun deal’ after closing $7 billion acquisition of Mellanox. CNBC (27 апреля 2020). Дата обращения: 1 мая 2020. Архивировано 1 мая 2020 года.
  19. Web-chip fabless Mellanox poised to raise $50m at company value of $250m. TheMarker (30 октября 2001). Дата обращения: 29 октября 2011. Архивировано из оригинала 4 февраля 2013 года.
  20. 1 2 3 Morgan, Timothy Prickett (2011-04-26). "Mellanox uncloaks SwitchX network switch-hitter". The Register. Архивировано 26 октября 2011. Дата обращения: 29 октября 2011.
  21. "Oracle Corporation Makes Strategic Investment In Mellanox Technologies, Ltd". Reuters. 2010-10-27. Дата обращения: 29 октября 2011.
  22. 2009.
  23. Mellanox etches software-defined networking onto SwitchX-2 chips. Working on OpenFlow controller for fabric manager Архивная копия от 11 марта 2017 на Wayback Machine // The Register, 2012-10-15
  24. Mellanox Turns InfiniBand Switches Into MPI Accelerators. Дата обращения: 28 октября 2018. Архивировано 8 июня 2017 года.
  25. Mellanox Poised For HDR InfiniBand Quantum Leap. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  26. 1 2 Mellanox Comes Out Swinging With 100G Spectrum Ethernet. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  27. Ethernet Getting Back On The Moore’s Law Track. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  28. 2009.
  29. Mellanox pushes InfiniBand to 120Gb/s. Offloading IB processing from CPUs to ConnectX-2s Архивная копия от 19 августа 2016 на Wayback Machine, 2009 «Mellanox also said at the SC09 show that the ConnectX-2 host channel adapters it has been shipping had another golden screwdriver upgrade.»
  30. Mellanox forges switch-hitting ConnectX-3 adapters. The server companion to SwitchX switch chips Архивная копия от 11 марта 2017 на Wayback Machine // The Register, 2011-06-16
  31. Sur, Sayantan; Koop, Matthew J.; Lei; Panda, Dhabaleswar K. Performance Analysis and Evaluation of Mellanox ConnectX InfiniBand Architecture with Multi-Core Platforms (англ.) // hoti : journal. — 15th Annual IEEE Symposium on High-Performance Interconnects (HOTI 2007), 2007. — P. 125—134.
  32. Сетевой адаптер Mellanox ConnectX-4 поддерживает скорости до 100 Гбит/с Архивировано 4 марта 2016 года. // IXBT, 13 Ноября, 2014
  33. Next-Gen Network Adapters: More Oomph, Switchless Clusters. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  34. Mellanox Adds Network Computing Smarts into New 100G Adapters | TOP500 Supercomputer Sites. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  35. What 200G HDR InfiniBand Solutions Mean for Today’s Data Centers. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  36. Mellanox Unveils 200Gb/s HDR InfiniBand Solutions | StorageReview.com — Storage Reviews. Дата обращения: 6 октября 2018. Архивировано из оригинала 6 октября 2018 года.
  37. Mellanox BlueField Accelerates NVMe over Fabrics - insideHPC. Дата обращения: 6 октября 2018. Архивировано 7 октября 2018 года.
  38. Архивированная копия. Дата обращения: 6 октября 2018. Архивировано 7 октября 2018 года.
  39. "Mellanox Accelerates Half of the World's Petaflop Systems; Delivers Scalable Networking for Next Generation Supercomputers". Bloomberg. 2011-06-27.
  40. Teasing Out The Top 500 Truth Through Networking. Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  41. Harif, Tal Barak (2011-08-30). "Mellanox Buffered by Orders as Economy Flags: Israel Overnight". Bloomberg. Архивировано 30 декабря 2011. Дата обращения: 29 октября 2011.
  42. "Mellanox Falls on Downgrade". Bloomberg. 2012-09-10. Архивировано 5 декабря 2020. Дата обращения: 29 октября 2011.
  43. "Is Mellanox Oracle's Networking B*tch?". SiliconAngle. 2011-06-20. Архивировано 4 марта 2016. Дата обращения: 29 октября 2011.