Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Innovación

Innovación

La agricultura se encuentra a las puertas de una nueva revolución. El incremento de la población, la competencia por unos recursos cada vez más escasos y el cambio climático son los retos que tiene que afrontar este sector para ser capaz de alimentar a toda la humanidad. Necesitamos producir más con menos, un desafío al que el campo ya ha empezado a dar respuesta gracias a internet de las cosas, cuyos sensores han llevado los beneficios del big data a granjas y campos de cultivo.

En España, las grandes compañías y las ‘startups’ ya han interiorizado el valor de los datos mientras que las pequeñas y medianas empresas empiezan a asumirlo. Revisamos los tres ejes en los que el ‘big data’ puede aportar un cambio diferencial para el éxito empresarial en empresas de todos los tamaños.

Este artículo es la segunda parte sobre la tecnología serverless, en donde abordamos la integración de uno de los productos más interesantes que implementan esta tecnología (Fission) en la plataforma de PaaS de RedHat, OpenShift.

Previamente a este artículo, se realizó un análisis de arquitecturas serverless o FaaS (Function as a Service), donde se introdujo esta tecnología, junto con su valor en desarrollos empresariales.

Siempre han sido nuevos tiempos para la innovación. Siempre lo han sido y siempre lo serán. Está en nuestra naturaleza estresar el modelo. Incluido el nuestro.

La arquitectura serverless también conocida como FaaS (Functions as a Service), habilita la ejecución de una aplicación mediante contenedores efímeros y sin estado; estos son creados en el momento en el que se produce un evento que dispare dicha aplicación. Contrariamente a lo que nos sugiere el término, serverless no significa «sin servidor», sino que éstos se usan como un elemento anónimo más de la infraestructura, apoyándose en las ventajas del cloud computing.

En este post exploramos, dejando de un lado el hype que acompaña al término serverless, las posibilidades que nos ofrece a nivel de arquitectura y desarrollo de aplicaciones. También estudiamos las principales alternativas de uso en clouds públicas y privadas.

El entrenamiento de redes neuronales plantea grandes exigencias tanto del punto de vista de temporal como de capacidad de procesamiento, incluso para los estándares actuales.  Existen dos maneras de reducir la cantidad de tiempo necesaria: recurriendo a máquinas más potentes o a un mayor número de ellas.

Para la primera opción existe la posibilidad de recurrir al uso de hardware dedicado como unidades de procesamiento gráfico (GPU o grafic processing units), o incluso FPGAsTPUstensor programming unit en el futuro. Pero también puede lograrse dividiendo la tarea entre equipos de uso normal, como las que se utilizan en los sistemas basados en la nube.

Este documento resume las conclusiones alcanzadas tras investigar el uso de redes neuronales distribuidas.