Info
Content

Capítulo 5-4º | Chapter 5-4º

¿Futuro de la electrónica: procesadores ópticos? | Future of electronics: optical processors


C541.png


Fig. I A. C5.4.1- Un nuevo diseño de chip fotónico reduce drásticamente la energía necesaria para calcular con luz | A new photonic chip design dramatically reduces the energy needed to calculate with light. Crédito imag. (IMT NEW).  URL: https://phys.org/news/2019-06-chip-energy.html


Ir al índice principal del libro Go to the main index of the book

Contenidos

Contents

5.4.1.- Introducción

5.4.1.- Introduction

5.4.2.- Las redes neuronales artificiales

5.4.2.- Artificial neural networks

5.4.3.- Junio de 2019, Bill Gates como inversor en tecnología fotónica en Luminous Computing

5.4.3.- June 2019, Bill Gates as an investor in photonic technology in Luminous Computing

5.4.4.- Lightelligence

5.4.4.- Lightelligence

5.4.5.-Lightmatte

5.4.5.-Lightmatte

5.4.6.- Enero de 2017, El nuevo chip de HPE (la división Empresarial de Hewlett Packard) marca un hito en la informática óptica

5.4.6.- January 2017, The new HPE chip (the Hewlett Packard Emterprise Division) marks a milestone in optical computing

5.4.7.- Finales de diciembre de 2015, el MIT alcanzaba un nuevo hito en el desarrollo de los microprocesadores

5.4.7.- At the end of December 2015, MIT reached a new milestone in the development of microprocessors

5.4.8.- junio de 2019, investigadores del MIT

5.4.8.- June 2019, MIT researchers


Autor / Author: Juan Antonio Lloret Egea |eu-ai-alliance-3_0.pngMiembro de la Alianza Europea para la IA / Member to the European AI Alliance | https://orcid.org/0000-0002-6634-3351| Escrito / Writed: 14/07/2019. Actualizado / Updated: 19/08/2019 |

© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 | Preprint DOI 10.13140/RG.2.2.32565.42720/1 |
Una propuesta fotónica que se espera en un plazo de entre 5 y 10 años | A photonic proposal that is expected within 5 to 10 years

IBM empezó la producción de un chip de tecnología nanofotónica a principios del año 2012 en una fábrica de semiconductores. Y Luminous Computing (que recientemente recaudó 9 millones $ de fondos iniciales de importantes inversores, incluidos Bill Gates y el CEO de Uber, Dara Khosrowshahi) tiene un ambicioso plan para acelerar la IA con un nuevo chip (C5.4-1,C5.4.-2) | IBM began the production of a nanophotonic technology chip at the beginning of 2012 in a semiconductor factory. And Luminous Computing (which recently raised $ 9 million from initial funds from major investors, including Bill Gates and Uber CEO Dara Khosrowshahi) has an ambitious plan to accelerate AI with a new chip(C5.4-1,C5.4.-2).


Los chips ópticos necesitan de todo: desde láseres hasta moduladores electroópticos para controlar la luz y hacer que funcionen, razón por la que aún no se han extendido ampliamenteC5.4.-2. Las simulaciones sugieren que el chip fotónico podría ejecutar redes neuronales ópticas 10 millones de veces más eficientemente que sus contrapartes eléctricasC5.4.-3. | Optical chips need everything: from lasers to electro-optic modulators to control the light and make them play, which is why they have not yet spread widelyC5.4.-2. Simulations suggest that the photonic chip could run optical neural networks 10 million times more efficiently than its electrical counterpartsC5.4.-3.


5.4.1.- Introducción | Introduction

Fig. I A . (C5.1.2 / C5.4-2)- Crédito imag. (SPIETV).  URL: https://youtu.be/3gemjOz63SE

(Silicon Photonics para una nueva era de ancho de banda escalable | Silicon Photonics para una nueva era de ancho de banda escalable).


Los elementos ópticos tienen de partida una plataforma real y muy ventajosa siempre, la fibra óptica implatada ya en casi todo el mundo. Esa fibra óptica, su uso y su abaratamiento en costes, puede ser determinante para que esta tecnología en ciernes (y no tan en ciernes) prospere y alcance finalmente al mercado de forma rentable y beneficiosa para todos. Y su catalizador y acelerante puede ser la Inteligencia Artificial. Las redes neuronales artificiales parecen ser el mayor foco de trabajo de los esfuerzos en esta tecnología.

Todo ello con permiso de la computación cuántica que con recelo y competitividad la está observando de forma real y con alcance económico. E IBM y las principales marcas tratan de ocupar ambos mercados, la computación cuántica y la fotónica, y además (IBM) con su supercomputador Watson (específico para IA) redobla las posibilidades de salir victoriosa de forma callada y sigilosa en estas batallas tecnológicas que se están librando en los despachos, en los laboratorios y entre científicos. Las conferencias sobre láser y electro-óptica que se vienen celebrando exponen y analizan los avances más significativos (CLEO: Conference on Lasers and Electro-Optics). En estas conferencias también se abordan iniciativas en el campo de la computación cuántica.

En mi opinión la posición más ventajosa actualmente la tiene Lightmatte.

La línea de trabajo en la tecnología de la luz parece distinguirse claramente en tres sectores:

1.-Microprocesadores ópticos. |Claramente se destacan tres startups en estos desarrollos: Luminous Computing, Lightelligence y Lightmatter|. En mi opinión la posición más ventajosa actualmente la tiene Lightmatte. (El MIT y HPE tienen una implicación importante también).

2.-Data centers e interconexiones. |La participación de Intel e IBM (MM PWG) aquí es vigorosa. No hemos de descartar el desarrollo de otras líneas de productos como microprocesadores fotónicos, pero la línea de la computación cuántica parece la más lógica. Habida cuenta que son proyectos que pudieran estar comercializados en periodo inferior a 5 ó 10 años|.

3.-Redes neuronales. |El trabajo de Intel e IBM en esta área es una consecuencia natural del estado actual de la IA y de sus desarrollos en los data centers. Una extrapolación a las redes neuronales es un paso lógico|. (El MIT y HPE tienen una implicación importante también).

[English]

The optical elements have as a starting point a real and very advantageous platform always, the optical fiber implanted already in almost all the world. This fiber optic, its use and its cost reduction, can be decisive for this budding technology (and not so budding) to prosper and finally reach the market in a profitable and beneficial way for everyone. And its catalyst and accelerator may be Artificial Intelligence (AI).

All this with the permission of quantum computing that with suspicion and competitiveness is observing it in a real way and with economic reach. And IBM and major brands try to occupy both markets, quantum computing and photonics, and also (IBM) with its supercomputer Watson (specific for AI) redouble the chances of being victorious in a quiet and stealthy way in these technological battles that are being fought in offices, in laboratories and among scientists. The conferences on laser and electro-optics that are being held expose and analyze the most significant advances (CLEO: Conference on Lasers and Electro-Optics). These conferences also address initiatives in the field of quantum computing.

The line of work in light technology seems to be clearly distinguished in three sectors:

1.-Optical microprocessors. |Clearly, three startups stand out in these developments: Luminous Computing, Lightelligence and Lightmatter|. (MIT and HPE  have an important implication as well).

2.-Data centers and interconnections. |The participation of Intel and IBM (MM PWG) here is vigorous. We should not rule out the development of other product lines such as photonic microprocessors, but the quantum computing line seems the most logical. Given that they are projects that could be in a period of less than 5 or 10 years|.

3.-Neural networks. |Intel and IBM's work in this area is a natural consequence of the current state of AI and its developments in data centers. An extrapolation to neural networks is a logical step|. (MIT and HPE  have an important implication as well).


5.4.2.- Las redes neuronales artificiales | Artificial neural networks

C542.png


Fig. I A. C5.4.3-[Arquitectura general de la red neuronal óptica. A). Arquitectura de red neuronal artificial general compuesta por una capa de entrada, varias capas ocultas y una capa de salida. .B). Descomposición de la red neuronal general en capas individuales. c). Unidades de interferencia óptica y no linealidad que componen cada capa de la red neuronal artificial]C5.4.-4. | [General Architecture of Optical Neural Network. A) General artificial neural network architecture composed of an input layer, a number of hidden layers, and an output layer. B) Decomposition of the general neural network into individual layers. C)Optical interference and nonlinearity units that compose each layer of the artificial neural network]C5.4.-4. Crédito Img. [Deep Learning with Coherent NanophotonicCircuits]. URL:https://arxiv.org/pdf/1610.02365.pdf


Las redes neuronales artificiales son modelos de redes computacionales inspiradas en el procesamiento de señales en el cerebro. Estos modelos han mejorado drásticamente el rendimiento de muchas tareas de aprendizaje, incluido el reconocimiento de voz y de objetos. Sin embargo, el hardware informático actual es ineficiente en la implementación de redes neuronales, en gran parte porque fue diseñado para esquemas informáticos de von Neumann. Se han realizado esfuerzos significativos para desarrollar arquitecturas electrónicas ajustadas para implementar redes neuronales artificiales que mejoren tanto la velocidad computacional como la eficiencia energética.C5.4.-4

[English]

General architecture of the optic neural network. a). General artificial neural network architecture composed of an input layer, several hidden layers and an output layer. b). Decomposition of the general neural network into individual layers. c). Units of optical interference and non-linearity that make up each layer of the artificial neural networkC5.4.-4.

Artificial neural networks are models of computational networks inspired by signal processing in the brain. These models have dramatically improved the performance of many learning tasks, including speech and object recognition. However, current computer hardware is inefficient in the implementation of neural networks, in large part because much of it was designed for von Neumann computer schemes. Significant efforts have been made to develop tight electronic architectures to implement artificial neural networks that improve both computational speed and energy efficiencyC5.4.-4.


C543.png


Fig. I A. C5.4.4- Diagrama de la arquitectura von Neumann. | Diagram of von Neumann architecture. Crédito imag. (User:Kapooht, modified by User:JaimeGallego [CC BY-SA 3.0])


Año 2012, microprocesadores ópticos de IBM | Year 2012, IBM optical microprocessors

Usar luz en lugar de flujos de electrones para transmitir información tiene dos ventajas. En primer lugar los datos pueden ser enviados a mayor distancia desde distintas partes del servidor, sin riesgo de perder información. Además la luz permite transferir más cantidad de datos y a más velocidad que con los cables convencionales. En 2012 los centros de datos ya estaban empezando a usar cables ópticos para transmitir datos entre líneas de chips en lugar de cables de cobre. Pero el problema es que necesitaban un equipo especial para transformar los datos codificados en luz a una versión basada en electricidad para que los procesadores pudieran utilizarlos. Solomon Assefa, asistente de nanofotónica del Departamento de Investigación de IBM, explicaba que esto es muy útil. Los chips abaratarían el uso de cables ópticos para conectar distintas partes de los servidores. "Cuando realizas una búsqueda en internet tus datos van al centro de datos y la información deseada podría estar no sólo en un chip, sino en toda una línea de chips", dijo a la BBC. "La información podría estar distribuida por todo el enorme centro de datos. La cuestión es cómo conectar los chips y hacerlo rápido. Quieres que los resultados vuelvan a ti muy rápido. Con la tecnología existente, teniendo en cuenta la enorme cantidad de datos que circulan en la red, eso es muy difícil. con esta nueva tecnología puedes hacer esta búsqueda rápida y de forma económica". Cada chip contiene un número de canales (IBM no especificaba el número) que podían manejar datos codificados en luz a velocidades superiores a 25 gigabites por segundo (Gbps). Según IBM, combinando estos nuevos chips con cables ópticos los datos podrían transferirse cientos de veces más rápido. IBM empezó la producción del nuevo chip de tecnología nanofotónica a principios del año 2012 en una fábrica de semiconductores C5.4.-1.

En 2015 los ingenieros de IBM diseñaron y probaron un chip fotónico de silicio multiplexado de longitud de onda totalmente integrado, que  permitirá la fabricación de transceptores ópticos de 100 Gb/s. Esto permitiría que los centros de datos ofrecieran mayores velocidades de datos y anchos de banda para la computación en la nube y las aplicaciones de Big Data.

En 2017 se publicó El futuro del empaque con fotónica de silicio, que netamente estaba orientado a los data centers. Su trabajo se fundamente en las comunicaciones ópticas y en la creación de circuitos ópticos ultrarrápidos.

Actualmente IBM no parece centrarse con vigor en esta área fotónica más allá de los data centers e interconexiones (recordemos que está muy centrada en la computación cuántica) y comercializa servidores POWER9™ (Server AC922, Power System LC921, Power System LC922) que se han creado para la informática con más carga de datos y exigente del mundo. Ya sea IA, la infraestructura cloud o la capacidad de ejecutar aplicaciones de misión crítica con facilidad.


[English]

Using light instead of electron flows to transmit information has two advantages. First, the data can be sent at a greater distance from different parts of the server, without the risk of losing information. In addition, the light allows more data to be transferred and at a faster rate than with conventional cables. In 2012, data centers were already starting to use optical cables to transmit data between chip lines instead of copper cables. But the problem is that they needed special equipment to transform the encoded data into light to an electricity-based version so that the processors could use them. Solomon Assefa, nanophotonics assistant at the IBM Research Department, explained that this is very useful. The chips would reduce the use of optical cables to connect different parts of the servers. "When you do a search on the internet your data goes to the data center and the desired information could be not only on a chip, but on a whole line of chips," he told the BBC. "The information could be distributed throughout the huge data center. The question is how to connect the chips and make it fast. You want the results to come back to you very fast. With existing technology, taking into account the huge amount of data that circulates in the network, that is very difficult. with this new technology you can do this search quickly and economically ".

Each chip contains a number of channels (IBM did not specify the number that could handle data encoded in light at speeds greater than 25 gigabits per second (Gbps). According to IBM, combining these new chips with optical cables data could be transferred hundreds of times faster. IBM began production of the new nanophotonic technology chip in early 2012 in a semiconductor factory C5.4.-1.

In 2015, IBM engineers designed and tested a fully integrated wavelength multiplexed silicon photonic chip, which will allow the manufacture of 100 Gb/s optical transceivers. This would allow data centers to offer higher data rates and bandwidths for cloud computing and Big Data applications. In 2017, The future of packaging with silicon photonics was published, which was clearly oriented to data centers. His work is  based on optical communications and the creation of ultrafast optical circuits.

IBM currently does not seem to focus vigorously on this photonic area beyond data centers and Interconnections. (remember that it is very focused on quantum computing) and markets POWER9 ™ servers (Server AC922, Power System LC921, Power System LC922) that have been created for the most demanding data load in the world. Either AI, the cloud infrastructure or the ability to run mission-critical applications with ease.


5.4.3.- Junio de 2019, Bill Gates como inversor en tecnología fotónica en Luminous Computing | June 2019, Bill Gates as an investor in photonic technology in Luminous Computing

Los avances en informática, desde procesadores más rápidos hasta almacenamiento de datos más barato, ayudaron a encender la nueva era de IA. Ahora la demanda de modelos de IA aún más rápidos y con mayor eficiencia energética está impulsando una ola de innovación en semiconductores. Luminous Computing, que recientemente recaudó 9 millones de fondos iniciales de importantes inversores, incluidos Bill Gates y el CEO de Uber, Dara Khosrowshahi, tiene un ambicioso plan para acelerar la IA con un nuevo chipC5.4.-2.

Utiliza láseres para emitir luz a través de pequeñas estructuras en su chip, conocidas como guías de onda. Al usar diferentes colores de luz para mover múltiples piezas de datos a través de guías de onda al mismo tiempo, puede superar las capacidades de transporte de datos de los chips eléctricos convencionales. La capacidad de transportar grandes cantidades de información rápidamente significa que los procesadores ópticos son ideales para manejar la gran cantidad de cálculos que manejan los modelos de IA. También requieren mucha menos energía que las eléctricas. Mitchell Nahmias, otro cofundador de Luminous y su director de tecnología, dice que su prototipo actual es tres órdenes de magnitud más eficiente energéticamente que otros chips AI de última generación. El procesador de la startup se basa en años de investigación realizada por Nahmias y otros académicos de la Universidad de Princeton.


[English]

Advances in computing, from faster processors to cheaper data storage, helped ignite the new era of AI. Now the demand for even faster and more energy efficient AI models is driving a wave of innovation in semiconductors. Luminous Computing, which recently raised $ 9 million in initial funds from major investors, including Bill Gates and Uber CEO Dara Khosrowshahi, has an ambitious plan to accelerate AI with a new chipC5.4.-2.

It uses lasers to emit light through small structures on its chip, known as waveguides. By using different colors of light to move multiple pieces of data through waveguides at the same time, it can exceed the data transport capabilities of conventional electrical chips. The ability to transport large amounts of information quickly means that optical processors are ideal for handling the large number of calculations that AI models handle. Also require much less energy than electricity yet. Mitchell Nahmias, another co-founder of Luminous and its technology director, says his current prototype is three orders of magnitude more energy efficient than other next-generation AI chips. The startup processor is based on years of research conducted by Nahmias and other academics at Princeton University.


C544.png

Fig. I A. C5.4.5- Crédito imag. (LIGHTWAVE LAB @ PRINCETON UNIVERSITY).URL El Paíshttp://cort.as/-Lhwd

Aún así, Luminous enfrenta una dura competencia. Las startups como Lightelligence y Lightmatter que también están trabajando en chips ópticos para acelerar la IA. Y los gigantes de los semiconductores como Intel están intensificando la investigación en el campo, lo que podría llevarlos a lanzar nuevos procesadores ópticos. Dirk Englund, un profesor del MIT que también es asesor técnico de Lightmatter, cree que a Luminous le puede resultar difícil administrar los diversos dispositivos necesarios para manipular la luz cuando comience a aumentar la producción de sus chips. Los chips ópticos necesitan de todo, desde láseres hasta moduladores electroópticos para controlar la luz y hacer que funcionen, razón por la que aún no se han extendido ampliamenteC5.4.-2.


[English]

Still, Luminous faces stiff competition. Startups like Lightelligence and Lightmatter that are also working on optical chips to accelerate AI. And semiconductor giants like Intel are intensifying research in the field, which could lead them to launch new optical processors. Dirk Englund, an MIT professor who is also a Lightmatter technical advisor, believes that Luminous may find it difficult to manage the various devices needed to manipulate light when it begins to increase its chip production. Optical chips need everything from lasers to electro-optic modulators to control light and make them work, which is why they have not yet spread widelyC5.4.-2.


 
5.4.4.- Lightelligence

15 de abril de 2019. Lightelligence lanza el prototipo de su chip acelerador óptico AI y afirma que ha logrado una medida de éxito con su chip AI óptico, que se presenta en forma de prototipo. La latencia se mejora hasta 10,000 veces en comparación con el hardware tradicional, y estiman el consumo de energía en 'órdenes de magnitud' más bajo. La tecnología que lo sustenta tiene su origen en un artículo de 2017 en coautoría del CEO Yichen Shen. Shen (entonces un Ph.D. estudiante que estudiaba materiales fotónicos en el MIT con Marin Soljacic, profesor del Departamento de Física del MIT que dirige el grupo fotónico y electromagnético moderno de la escuela) publicó una investigación en la revista Nature Photonics que describe una forma novedosa de realizar cargas de trabajo de redes neuronales usando interferencia ópticaC5.4.-4.

El chip en cuestión, que tiene aproximadamente el tamaño de una placa de circuito impreso, contiene circuitos fotónicos similares a las fibras ópticas que transmiten señales. Está diseñado para ubicarse en máquinas existentes en el borde de la red, como servidores locales, y eventualmente se enviará con una pila de software compatible con algoritmos en marcos comúnmente utilizados como Tensorflow de Google, Caffe2 (es ahora una parte de Pytorch) y Pytorch de Facebook, y otros.  Lightelligence ha realizado una demostración ejecutando MNIST hasta ahora, un modelo de aprendizaje automático de referencia que utiliza la visión por computadora para reconocer dígitos escritos a mano en su acelerador. Y se registran multiplicaciones de vectores de matriz y otras operaciones lineales, componentes clave de los modelos AI, que se ejecutan aproximadamente 100 veces más rápido que los chips electrónicos de última generación.

Hasta la fecha Lightelligence ha recaudado 10.7 $ millones en financiamiento de riesgo y tiene más de 20 empleados, incluidos varios veteranos de la industria provenientes de Columbia, Georgia Tech, la Universidad de Pekín y UC Berkeley. Encabezando la lista está el Dr. Gilbert Hendry, quien ocupó varios puestos en Google y Microsoft, y Maurice Steinman, un exmiembro de AMDC5.4-5.

El equipo de software de Lightelligence está construyendo la pila completa de software para permitir que los algoritmos de IA en los marcos de uso común se ejecuten fácilmente en el acelerador óptico.


[Englis]

April 15, 2019. Lightelligence launches the prototype of its AI optical accelerator chip and states that it has achieved a measure of success with its optical AI chip, which today is presented as a prototype. He says that the latency is improved up to 10,000 times compared to traditional hardware, and estimates the energy consumption at "orders of magnitude" lower. The technology that supports it has its origin in a 2017 article co-authored by CEO Yichen Shen. Shen (then a Ph.D. student studying photonic materials at MIT with Marin Soljacic, a professor in the Department of Physics at MIT who runs the school's modern photonic and electromagnetic group), published an investigationC5.4.-4 in the journal Nature Photonics that describes a novel way to perform workloads of neural networks using optical interference.

The chip in question, which is approximately the size of a printed circuit board, contains photonic circuits similar to the optical fibers that transmit signals. It is designed to be located on existing machines at the edge of the network, such as local servers, and will eventually be shipped with a software stack compatible with algorithms in commonly used frameworks such as Google Tensorflow, Facebook Caffe2 (is now a part of PyTorch) and Pytorch, and others. Lightelligence has conducted a demonstration by running MNIST so far, a reference machine learning model that uses computer vision to recognize handwritten digits on its accelerator. And matrix vector multiplications and other linear operations are recorded, key components of AI models, which run approximately 100 times faster than the latest generation of electronic chips.

To date, Lightelligence has raised $ 10.7 million in risk financing and has more than 20 employees, including several industry veterans from Columbia, Georgia Tech, Peking University and UC Berkeley. Topping the list is Dr. Gilbert Hendry, who held several positions at Google and Microsoft, and Maurice Steinman, a former member of AMDC5.4-5.

The Lightelligence software team is building the entire software stack to allow AI algorithms in commonly used frames to run easily in the optical accelerator.


5.4.5.-Lightmatte

24 de julio, 2019. Lightmatter está apostando a que los componentes ópticos podrían evitar los límites que enfrenta la generación actual de chips. No está claro cuándo estarán disponibles los primeros chip de la startup. GV, un brazo de riesgo bajo Alphabet matriz de Google, ha invertidoC5.4-6.

Se espera un periodo de entre 5 a 10 años para comercialización, especifica sin más detalles Nick Harris .

Específicamente el chip de Lightmatter incluye un componente óptico llamado interferómetro Mach-Zehnder en lugar de una unidad de acumulador-multiplicador, o MAC, más común. El intercambio está destinado a eludir los límites que enfrentan los chips de hoy. GV ha firmado junto con Spark Capital y Matrix Partners, dando a la nueva empresa 22$ millones en nuevos fondos para trabajar.

"Se requiere mucho esfuerzo para hacer que este tipo de dispositivo se conecte y se reproduzca y se parezca mucho a la experiencia de una GPU Nvidia", dijo Harris. El equipo quiere asegurarse de que los chips funcionen con el popular software de inteligencia artificial, como el proyecto de código abierto respaldado por Google TensorFlowC5.4-6.

La plataforma de investigación fue desarrollada y utilizada en publicaciones académicas por los fundadores de Lightmatter mientras estaba en el Laboratorio de Fotónica Cuántica en el MIT. El procesador fotónico está controlado por un conjunto de circuitos personalizados con salidas eléctricas programables y la luz se lee mediante un conjunto de detectores montados en otra placa de circuito personalizada; ambas unidades se comunican por USB a través de un microcontrolador a una computadora host. En Lightmatter estan integrando todas estas funciones en un solo chipC5.4-8.

En Lightmatter adoptan un enfoque diferente para procesar redes neuronales profundas, pero con muchas similitudes con la matriz MAC 2D empleada por la TPU. Su enfoque, basado en la arquitectura PNP, se basa en una matriz bidimensional de interferómetros Mach-Zehnder (MZI) fabricados en un proceso de fotónica de silicio. Para implementar un producto de matriz N por N, que requiere N² MZI, la misma cantidad de elementos de cálculo utilizados por los arreglos MAC sistólicos. Matemáticamente cada MZI realiza un producto matriz-vector de 2 por 2. Juntos, toda la malla de MZI multiplica una matriz N por N por un vector de N elementos. El cómputo ocurre cuando la luz viaja desde la entrada hasta la salida de la matriz MZI dentro del tiempo de vuelo para las señales ópticas de aproximadamente 100 picosegundos, ¡menos de un solo ciclo de reloj de un computador! Debido a que su sistema funciona a longitudes de onda ópticas, el ancho de banda teórico de los MZI es de casi 200 terahercios (sería un desafío conducir los MZI a cualquier punto cercano a esta velocidad) en comparación con un par de gigahercios para MAC electrónicos. Sus MZI requieren órdenes de magnitud menos energía por cálculo que los MAC electrónicos implementados en los últimos chips electrónicos.
Debido a estas propiedades especiales de su sistema fotónico, pueden implementar un procesador matricial que es más rápido y más eficiente energéticamente que los aceleradores electrónicos de inteligencia artificial.
"Construir la pila de hardware y software es importante, pero no se puede hacer en bucle abierto", explican. Durante el año pasado, hemos estado comparando nuestro sistema en arquitecturas y conjuntos de datos de redes neuronales del mundo real a gran escala (como ResNet con ImageNet) que son más relevantes que las tareas de reconocimiento de números manuscritas de la década de 1990 (como MNIST)C5.4-8.

Al igual que IBM, inicialmente el objetivo de Lightmatte es vender chips a organizaciones que administran grandes centros de datos de computación en la nube y clústeres de computación de alto rendimiento. Otras empresas nuevas, como Cerebras y Graphcore, también están trabajando en chips que podrían usarse para modelos de IA en esos lugares, y las grandes empresas, incluida Intel, también quieren un pedazo del pastel.


[English]

July 24, 2019. Lightmatter is betting that optical components could avoid the limits facing the current generation of chips. It is not clear when the first startup chip will be available. GV, a risk arm under Google's Alphabet matrix, has investedC5.4-6.

A period of 5 to 10 years is expected for commercialization, specifies Nick Harris without further details.

Specifically, the Lightmatter chip includes an optical component called a Mach-Zehnder interferometer instead of a more common accumulator-multiplier unit, or MAC. The exchange is intended to circumvent the limits facing today's chips. GV has signed with Spark Capital and Matrix Partners, giving the new company $ 22 million in new funds to work.

"It takes a lot of effort to make this type of device connect and play and closely resemble the experience of an Nvidia GPU," said Harris. The team wants to make sure the chips work with the popular artificial intelligence software, such as the open source project backed by Google TensorFlowC5.4-6.

The research platform developed and used in academic publications by the founders of Lightmatter while at the Quantum Photonics Laboratory at MIT. The photonic processor is controlled by an array of custom circuits with programmable electrical outputs and the light is read-out using an array of detectors mounted on another custom circuit board; both units communicate over USB via a microcontroller to a host computer. At Lightmatter, we are integrating all of these functions into a single chipC5.4-8.

In Lightmatter they adopt a different approach to process deep neural networks, but with many similarities with the 2D MAC matrix used by the TPU. Its approach, based on the PNP architecture, is based on a two-dimensional matrix of Mach-Zehnder interferometers (MZI) manufactured in a silicon photonics process. To implement a matrix product N by N, which requires N² MZI, the same amount of calculation elements used by systolic MAC arrays. Mathematically each MZI makes a matrix-vector product of 2 by 2. Together, the entire MZI mesh multiplies a matrix N by N by a vector of N elements. Computation occurs when light travels from the input to the output of the MZI matrix within the flight time for optical signals of approximately 100 PS, less than a single clock cycle of your computer! Because its system operates at optical wavelengths, the theoretical bandwidth of the MZI is almost 200 terahertz (it would be a challenge to drive the MZI at any point near this speed) compared to a pair of gigahertz for electronic MACs . Their MZI require orders of magnitude less energy per calculation than the electronic MACs implemented in the latest electronic chips.
Due to these special properties of their photonic system, they can implement a matrix processor that is faster and more energy efficient than electronic artificial intelligence accelerators.
"Building the hardware and software stack is important, but it cannot be done in an open loop," they explain. Over the past year, we have been comparing our system to large-scale real-world neural network architectures and datasets (such as ResNet with ImageNet) that are more relevant than the handwriting number recognition tasks of the 1990s (such as MNIST)C5.4-8.

Like IBM, initially the goal of Lightmatte is to sell chips to organizations that manage large cloud computing data centers and high performance computing clusters. Other new companies, such as Cerebras and Graphcore, are also working on chips that could be used for AI models in those places, and large companies, including Intel, also want a piece of the pie.

 


C545.png


Fig. I A. C5.4.6-  Crédito imag. (Lightmatter). URL: https://miro.medium.com/max/1400/0*Em92OaBTKW0j_s8w


C546.png


Fig. I A. C5.4.7- Crédito imag. (Lightmatter). URL: https://miro.medium.com/max/1400/0*Em92OaBTKW0j_s8w


Mayo de 2019, Intel | May 2019, Intel

En Intel  están desarrollando chips que usan la luz en vez de electrones para funcionar, mejorando hasta 100 veces la eficiencia de estos para la IA. Intel, al igual que en IBM, los centros de datos y sus interconexiones parece que son los objetivos más cercanos.

El sistema que utilizan es mediante la fotónica del silicio, que es una combinación de el circuito integrado de silicio y el láser semiconductor. Esta tecnología permite realizar una transferencia de datos más rápida en distancias y más extensas en comparación con la electrónica tradicional, al tiempo que mejora la eficiencia de la fabricación de grandes volúmenes de silicio.

El uso de la fotónica del silicio parece haberse restringuido a los centros de datos, pero ahora Intel quiere aplicarlo a redes neuronales ópticas (ONN). Uno de los componentes comunes de estos circuitos fotónicos es el mencionado en este tema, inferómetro Mach-Zehnder (MZI), que se puede configurar para realizar una multiplicación de matrices 2 x 2 en una malla triangular para crear matrices más grandes.

El resultado es un circuito fotónico que implementa una multiplicación con vectores de matriz y que mejora la computación del Deep Learning. Esta tecnología no es todavía perfecta, de hecho, está en constante cambio y adaptación, y  se busca crear mallas cada vez mayores para entender la sensibilidad a las variaciones de los procesos. La escala de fabricación y su arquitectura es aún una ecuación a resolver de forma garante (C5.4-9, C5.4-10).

Para leer el informe completo del equipo de investigación, vea: “Design of optical neural networks with component imprecisions


[English]

At Intel they are developing chips that use light instead of electrons to function, improving their efficiency up to 100 times for AI. Intel, as in IBM, data centers and their interconnections seems to be the closest targets.

The system they use is by silicon photonics, which is a combination of the silicon integrated circuit and the semiconductor laser. This technology allows faster data transfer over longer and longer distances compared to traditional electronics, while improving the efficiency of manufacturing large volumes of silicon.

The use of silicon photonics seems to have been restricted to data centers, but now Intel wants to apply it to optical neural networks (ONN). One of the common components of these photonic circuits is the one mentioned in this topic, Mach-Zehnder (MZI) inferometer, which can be configured to perform a 2 x 2 matrix multiplication in a triangular mesh to create larger matrices.

The result is a photonic circuit that implements multiplication with matrix vectors and that improves Deep Learning computing. This technology is not yet perfect, in fact, it is constantly changing and adapting, and it seeks to create growing meshes to understand the sensitivity to process variations. The manufacturing scale and its architecture is still an equation to be solved in a guarantor way (C5.4-9, C5.4-10).

To read the research team’s full report, see : Design of optical neural networks with component imprecisions


5.4.6.- Enero de 2017, El nuevo chip de HPE (la división Empresarial de Hewlett Packard) marca un hito en la informática óptica | January 2017, The new HPE chip (the Hewlett Packard Emterprise Division) marks a milestone in optical computing

C547.png


Fig. I A. C5.4.8-Luz y calor: gran parte del espacio real de este procesador totalmente óptico se ocupa del cableado de los calentadores en chip | Light And heat: A lot of the real estate on this all-optical processor is taken up by wiring for on-chip heaters. Crédito imag. (Hewlett Packard Enterprise). URL: http://cort.as/-MliQ


En el prototipo hay cuatro áreas en el chip, llamadas nodos, admiten cuatro giros hechos de luz infrarroja. Después de que la luz sale de cada nodo, se divide y se combina con la luz de cada uno de los otros nodos dentro de un interferómetro. Los calentadores eléctricos integrados en el interferómetro se usan para alterar el índice de refracción y el tamaño físico de los componentes cercanos. Esto ajusta la longitud del camino óptico de cada haz de luz y, por lo tanto, su fase en relación con los otros haces. Las temperaturas del calentador codifican el problema a resolver, ya que determinan con qué intensidad se pesa el estado de un giro contra otro cuando se combinan dos haces. Las salidas de todas estas interacciones se condensan y retroalimentan en los nodos, donde las estructuras llamadas resonadores microring limpian la luz en cada nodo para que una vez más tenga una de dos fases. La luz realiza ciclos una y otra vez a través del interferómetro y los nodos, girando giros entre fases de 0 grados y 180 grados hasta que el sistema se equilibre con una sola respuesta. En el futuro los chips Ising como estos podrían actuar como aceleradores, especialistas rápidos como las unidades de procesamiento de gráficos utilizadas en muchas de las máquinas actualesC5.4-11.

«Hewlett Packard Enterprise en el corto y medio plazo no está convencida de la computación cuántica. Y su línea de investigación y producción se orienta hacia el uso de menristores y de componentes fotónicos»

2019, estrategia de HPE. Hewlett Packard Enterprise en el corto y medio plazo no está convencida de la computación cuántica. Y su línea de investigación y producción se orienta hacia el uso de menristores y de componentes fotónicos. Probablemente éste sea un futuro más cercano de lo que parece. Pero cabe preguntarse cuáles son los desarrollos finales para menristores y para procesadores ópticos, dateacenters e interconexiones que serán las versiones comerciales definitivas y cómo mejorarán la velocidad de transmisión de datos y la inteligencia artificial.


[English]

In the prototype there are four areas on the chip, called nodes, support four turns made of infrared light. After the light leaves each node, it is divided and combined with the light of each of the other nodes within an interferometer. Electric heaters integrated in the interferometer are used to alter the refractive index and physical size of nearby components. This adjusts the length of the optical path of each beam of light and, therefore, its phase in relation to the other beams. The heater temperatures encode the problem to be solved, since they determine how strongly the state of one turn is weighed against another when two beams are combined. The outputs of all these interactions are condensed and fed back into the nodes, where the structures called microring resonators clean the light in each node so that once again it has one of two phases. The light cycles again and again through the interferometer and the nodes, rotating turns between phases of 0 degrees and 180 degrees until the system is balanced with a single response. In the future, Ising chips like these could act as accelerators, fast specialists such as the graphics processing units used in many of today's machinesC5.4-11.

«Hewlett Packard Enterprise in the short and medium term is not convinced of quantum computing. And its line of research and production is oriented towards the use of menrisors and photonic components»

2019, HPE strategy. Hewlett Packard Enterprise in the short and medium term is not convinced of quantum computing. And its line of research and production is oriented towards the use of menristors and photonic components. This is probably a closer future than it seems. But it is worth asking what are the final developments for menristors and for optical processors, dateacenters and interconnections that will be the final commercial versions and how they will improve the data transmission speed and artificial intelligence.


5.4.7.- Finales de diciembre de 2015, el MIT alcanzaba un nuevo hito en el desarrollo de los microprocesadores | At the end of December 2015, MIT reached a new milestone in the development of microprocessors

Ya se disponía de un prototipo funcional de procesador que en lugar de utilizar las habituales conexiones con cable eléctrico hacía uso de haces de luz con conexiones ópticas, mucho más rápidas y eficientes.

Si la fibra óptica había supuesto una revolución a las conexiones 'de cobre' de Internet, ahora esta tecnología ya había llegado a los procesadores. El procesador creado por el MIT utilizaba más de 70 milllones de transistores y unos 850 componentes ópticos. El sistema utilizaba fibras ópticas, transmisores y receptores para enviar la señal entre el chip del procesador y el chip de la memoria. En una demostración, éste procesador ejecutaba un programa gráfico y manipulaba una imagen 3D, una tarea que requiere utilizar las conexiones internas del procesador para que los datos viajen a la memoria y reciban instrucciones de manera constante, con un resultado más que satisfactorio pues estas conexiones de fibra óptica, mucho más rápidas y sin ruido que las eléctricas, amplíaban en gran medida el ancho de banda y por lo tanto las tareas se ejecutaba de manera más rápida y eficiente, porque generan menos calor. La ganancia de rendimiento se estima entre un 20% y un 30%, mientras que la ganancia en cuestión de temperatura todavía estaba por determinarC5.4-7.


A functional processor prototype was already available that instead of using the usual connections with electric cable made use of light beams with optical connections, much faster and more efficient.

If the fiber optic had meant a revolution to the "copper" Internet connections, now this technology had already reached the processors. The processor created by MIT used more than 70 million transistors and about 850 optical components. The system used optical fibers, transmitters and receivers to send the signal between the processor chip and the memory chip. In a demonstration, this processor executed a graphic program and manipulated a 3D image, a task that requires using the internal connections of the processor for data to travel to memory and receive instructions constantly, with a more than satisfactory result as these connections Fiber optic, much faster and without noise than electric, greatly expanded bandwidth and therefore the tasks were executed more quickly and efficiently, because they generate less heat. The performance gain is estimated between 20% and 30%, while the temperature gain was still to be determinedC5.4-7.



Fig. I A. C5.4.9-  Crédito imag. (NPG Press). URL: https://youtu.be/JAe_xQyFI4k


5.4.8.- junio de 2019, investigadores del MIT | June 2019, MIT researchers

Han desarrollado un nuevo chip 'fotónico' que utiliza luz en lugar de electricidad y que consume relativamente poca energía en el proceso. El chip podría usarse para procesar redes neuronales masivas millones de veces más eficientemente que las computadoras clásicas de hoy.

A medida que las redes neuronales tradicionales y ópticas se vuelven más complejas, consumen toneladas de energía. Para abordar ese problema, los investigadores y las principales compañías tecnológicas, incluidos Google, IBM y Tesla, han desarrollado 'aceleradores de IA', chips especializados que mejoran la velocidad y la eficiencia de la capacitación y las pruebas de redes neuronales.

Para los chips eléctricos, incluida la mayoría de los aceleradores de IA, existe un límite mínimo teórico para el consumo de energía. Recientemente, los investigadores del MIT han comenzado a desarrollar aceleradores fotónicos para redes neuronales ópticas. Estos chips realizan órdenes de magnitud de manera más eficiente, pero dependen de algunos componentes ópticos voluminosos que limitan su uso a redes neuronales relativamente pequeñas.

Todos los aceleradores de IA tienen como objetivo reducir la energía necesaria para procesar y mover datos durante un paso específico de álgebra lineal en redes neuronales, llamado 'multiplicación de matriz'. Allí las neuronas y los pesos se codifican en tablas separadas de filas y columnas y luego que se combinan para calcular las salidas.

En los aceleradores fotónicos tradicionales los láseres pulsados ​​codificados con información sobre cada neurona en una capa fluyen hacia guías de onda y a través de divisores de haz. Las señales ópticas resultantes alimentan a una cuadrícula de componentes ópticos cuadrados, llamados 'interferómetros Mach-Zehnder', que están programados para realizar la multiplicación de matrices. Los interferómetros, que están codificados con información sobre cada peso, utilizan técnicas de interferencia de señal que procesan las señales ópticas y los valores de peso para calcular una salida para cada neurona C5.4.-3.

Hay un problema de escala: para cada neurona debe haber una guía de onda y, para cada peso, debe haber un interferómetro. Debido a que el número de pesos se ajusta al número de neuronas, esos interferómetros ocupan mucho espacioC5.4.-3.

El chip se basa en un esquema 'optoelectrónico' más compacto y eficiente en energía que codifica los datos con señales ópticas, pero utiliza la 'detección de homodina equilibrada' para la multiplicación de matrices. Ésa es una técnica que produce una señal eléctrica medible después de calcular el producto de las amplitudes (alturas de onda) de dos señales ópticas. Los pulsos de luz codificados con información sobre las neuronas de entrada y salida para cada capa de red neuronal, que son necesarias para entrenar a la red, fluyen a través de un solo canal. Y los pulsos separados codificados con información de filas enteras de pesos en la tabla de multiplicación de matriz fluyen a través de canales separados. Las señales ópticas que transportan la neurona y los datos de peso se despliegan a la red de fotodetectores homodinos. Los fotodetectores usan la amplitud de las señales para calcular un valor de salida para cada neurona. Cada detector alimenta una señal de salida eléctrica para cada neurona en un modulador, que convierte la señal nuevamente en un pulso de luz. Esa señal óptica se convierte en la entrada para la siguiente capa, y así sucesivamente...

El diseño requiere sólo un canal por neurona de entrada y salida, y sólo tantos fotodetectores homodinos como neuronas, no pesos. Debido a que siempre hay muchas menos neuronas que pesos, esto ahorra un espacio significativo, por lo que el chip puede escalar a redes neuronales con más de un millón de neuronas por capaC5.4.-3.


[English]

They have developed a new 'photonic' chip that uses light instead of electricity and consumes relatively little energy in the process. The chip could be used to process massive neural networks millions of times more efficiently than today's classic computers.

As traditional and optical neural networks become more complex, they consume tons of energy. To address that problem, researchers and leading technology companies, including Google, IBM and Tesla, have developed 'AI accelerators', specialized chips that improve the speed and efficiency of training and testing of neural networks.

For electric chips, including most AI accelerators, there is a theoretical minimum limit for energy consumption. Recently, MIT researchers have begun to develop photonic accelerators for optical neural networks. These chips perform orders of magnitude more efficiently, but depend on some bulky optical components that limit their use to relatively small neural networks.

All AI accelerators aim to reduce the energy needed to process and move data during a specific step of linear algebra in neural networks, called 'matrix multiplication'. There neurons and weights are encoded in separate tables of rows and columns and then combined to calculate the outputs.

In traditional photonic accelerators pulsed lasers encoded with information about each neuron in a layer flow to waveguides and through beam splitters. The resulting optical signals feed a grid of square optical components, 'Mach-Zehnder interferometers', which are programmed to perform matrix multiplication. Interferometers, which are encoded with information on each weight, use signal interference techniques that process optical signals and weight values ​​to calculate an output for each neuron C5.4.-3.

There is a problem of scale: for each neuron there must be a waveguide and, for each weight, there must be an interferometer. Because the number of weights fits the number of neurons, these interferometers take up a lot of spaceC5.4.-3.

The chip is based on a more compact and energy-efficient 'optoelectronic' scheme that encodes data with optical signals, but uses 'balanced homodyne detection' for matrix multiplication. That is a technique that produces a measurable electrical signal after calculating the product of the amplitudes (wave heights) of two optical signals. Light pulses encoded with information on the input and output neurons for each layer of neural network, which are necessary to train the network, flow through a single channel. And the separated pulses encoded with information of whole rows of weights in the matrix multiplication table flow through separate channels. The optical signals that carry the neuron and the weight data are displayed to the network of homodyne photodetectors. Photodetectors use the amplitude of the signals to calculate an output value for each neuron. Each detector feeds an electrical output signal for each neuron into a modulator, which converts the signal back into a pulse of light. That optical signal becomes the input for the next layer, and so on ...

The design requires only one channel per input and output neuron, and only as many homodyne photodetectors as neurons, not weights. Because there are always many fewer neurons than weights, this saves significant space, so the chip can scale to neural networks with more than one million neurons per layerC5.4.-3.


Bibliografía | Bibliografy


[C5.4-1] Radiotelevión MARTÍ. (11 de diciembre, 2012). Desarrollan un microprocesador que utilizará una luz de fibra óptica. [Recuperado (04/08/2019) de: https://www.radiotelevisionmarti.com/a/ibm-luz-fibra-optica-/17456.html]

[C5.4.-2] Giles, M. (13 de junio, 2019). Bill Gates just backed a chip startup that uses light to turbocharge AI. MIT Technology Review. . [Recuperado (04/08/2019) de: https://www.technologyreview.com/s/613668/ai-chips-uses-optical-semiconductor-machine-learning/]

[C5.4.-3] Matheson, R. (6 de junio de 2019). Chip design dramatically reduces energy needed to compute with light.  Massachusetts Institute of Technology (MIT). [Recuperado (04/08/2019) de: https://phys.org/news/2019-06-chip-energy.html]

[C5.4.-4] Shen, Y; Harris, N. (et al). (7 de octubre de 2016). Deep Learning with Coherent Nanophotonic Circuits. Cornell University. [Recuperado (04/08/2019) de: https://arxiv.org/pdf/1610.02365.pdf]

[C5.4-5] Wiggers, K. (15 de abril de 2019). Lightelligence releases prototype of its optical AI accelerator chip. VB. [Recuperado (04/08/2019) de: https://venturebeat.com/2019/04/15/lightelligence-releases-prototype-of-its-optical-ai-accelerator-chip/]

[C5.4-6] Novet, J. (25 de febrero, 2019). Alphabet invests in a start-up using beams of light on chips for super-fast A.I. CNBC. [Recuperado (04/08/2019) de: https://www.cnbc.com/2019/02/25/alphabet-gv-invests-in-lightmatter-optical-ai-chip-startup.html]

[C5.4-7] Alonso, R. (27 de diciembre,2015). Desarrollan un procesador con conexiones ópticas. Hardzone. [Recuperado (04/08/2019) de: https://hardzone.es/2015/12/27/desarrollan-procesador-conexiones-opticas/]

[C5.4-8] The story behind Lightmatter’s tech. Lightmatter.  (24 de julio, 2019). [Recuperado (04/08/2019) de: https://medium.com/lightmatter/the-story-behind-lightmatters-tech-e9fa0facca30]

[C5.4-9] Wierzynski, C. (21 de mayo, 2019). Remain in Light: Bringing Nanophotonic Neural Networks Closer to Reality.  Intel AI. . [Recuperado (04/08/2019) de: https://www.intel.ai/optical-neural-networks/#gs.vgzd9n

[C5.4-10] López, J. (23 de mayo, 2019). Intel trabaja en procesadores ópticos para IA: hasta 100 veces más eficientes. HARDZONE. [Recuperado (04/08/2019) de: https://hardzone.es/2019/05/23/intel-chips-opticos-ia-eficiente/

[C5.4-11] Courtland, R. (Enero, 2017). HPE's New Chip Marks a Milestone in Optical Computing.  IEEE Spectrum. [Recuperado (04/08/2019) de: https://spectrum.ieee.org/semiconductors/processors/hpes-new-chip-marks-a-milestone-in-optical-computing]


© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|

Back to top