NVIDIA simplifica drásticamente la programación paralela con CUDA 6

Quadro_Fermi_nvidia-cuda-itusers-aMemoria unificada y bibliotecas de adición inmediata, entre los nuevos recursos de programación para fortalecer a la nueva ola de desarrolladores de la GPU

SANTA CLARA, Calif., 19 de noviembre del 2013.— NVIDIA anunció el lanzamiento de NVIDIA® CUDA® 6, la versión más reciente del modelo de programación y la plataforma de computación paralela más extendida del mundo.

La plataforma CUDA 6 facilita más que nunca la programación paralela, lo que permite que los programadores de software reduzcan de forma impresionante el tiempo y los esfuerzos necesarios para acelerar sus aplicaciones científicas, empresariales y de ingeniería, entre otras, mediante las GPU.

Ofrece nuevas mejorías en el rendimiento, gracias a las cuales los desarrolladores pueden acelerar de forma instantánea en hasta 8 veces las aplicaciones mediante la sustitución de las bibliotecas existentes basadas en la CPU. Características clave de CUDA 6:

  • Memoria unificada: simplifica la programación al habilitar las aplicaciones para que accedan a la memoria de la GPU y la CPU sin la necesidad de copiar manualmente los datos entre sí. Además, facilita la adición de compatibilidad con la aceleración de la GPU en una amplia gama de lenguajes de programación. Bibliotecas de adición inmediata:  aceleran de forma automática en hasta 8 veces los cálculos FFTW y BLAS de las aplicaciones al reemplazar las bibliotecas existentes de la CPU con las equivalentes aceleradas por la GPU.
  • Escalabilidad de múltiples GPU: las bibliotecas rediseñadas de la GPU BLAS y FFT escalan el rendimiento automáticamente en hasta ocho GPU en un único nodo, brindando más de nueve teraflops de rendimiento de doble precisión por nodo. De esta forma, se admiten cargas de trabajo más grandes que nunca (hasta 512 GB). La escalabilidad de múltiples GPU también se puede usar con la nueva biblioteca BLAS de adición inmediata.

Al lidiar de manera automática con la administración de datos, la memoria unificada nos permite diseñar rápidamente el prototipo de los kernels que se ejecutan en la GPU y reducir la complejidad del código. Con esto, se reduce el tiempo de desarrollo en hasta un 50%”, afirmó Rob Hoekstra, gerente del Departamento de algoritmos escalables de Sandia National Laboratories. “El contar con esta capacidad será muy útil en la medida en que podremos determinar las opciones futuras de modelo de programación y llevar códigos más grandes y más sofisticados a las GPU”.

Nuestras tecnologías han ayudado a los principales estudios, a los desarrolladores de juegos y a los animadores a crear animaciones y efectos en 3D impresionantes”, comentó Paul Doyle, Director Ejecutivo de Fabric Engine, Inc. “Nos habían pedido constantemente que agregáramos la compatibilidad con la aceleración de las GPU NVIDIA, pero la administración de memoria había resultado un desafío muy complicado a la hora de lidiar con casos de uso complejos en la producción. Con la memoria unificada, esto se maneja de forma automática, lo que permite que el compilador de Fabric se dirija a las GPU NVIDIA y nuestros clientes puedan ejecutar sus aplicaciones hasta 10 veces más rápido”.

Además de los nuevos recursos, la plataforma CUDA 6 ofrece un conjunto completo de herramientas de programación, bibliotecas de matemáticas aceleradas por la GPU, documentación y guías de programación.

Se espera que la versión 6 del kit de herramientas de CUDA esté disponible a principios de 2014. A los miembros del Programa de Desarrolladores registrados de computación para la GPU-CUDA se les avisará cuando esté disponible para descarga. Para unirse al programa, regístrese aquí.

Si desea más información sobre la plataforma CUDA 6, visite el stand 613 de NVIDIA en SC13, del 18 al 21 de noviembre en Denver, así como el sitio web de NVIDIA CUDA.

nvidia_java-cuda-itusersAcerca de CUDA

CUDA es un modelo de programación y una plataforma de computación paralela desarrollada por NVIDIA. Permite aumentos impresionantes en el rendimiento de la computación al aprovechar la potencia de la GPU.

Con más de dos millones de descargas y la compatibilidad con más de 240 aplicaciones líderes científicas, comerciales y de ingeniería, el modelo de programación CUDA se enseña en más de 700 universidades e instituciones de todo el mundo y es la forma más popular para que los desarrolladores aprovechen la computación acelerada por la GPU.