Cursos de Inteligencia Artificial

Inteligencia Artificial Training

Capacitación de Inteligencia Artificial (AI), Inteligencia Sintética (SI), Aprendizaje Automático (Aprendizaje de Máquinas), Big Data (Datos Masivos), Rule Engines (Reasoner), Optimización Automática de Procesos, hasta Metaheurística.

Testimonios de los Clientes

Introduction to Deep Learning

Trainers theoretical knowledge and willingness to solve the problems with the participants after the training

Grzegorz Mianowski - Dolby Poland Sp. z o.o.

Data Visualization

The examples.

peter coleman - Virginia Department of Education

Artificial Neural Networks, Machine Learning, Deep Thinking

It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.

Jonathan Blease - Knowledgepool Group Ltd

Introduction to the use of neural networks

Ann created a great environment to ask questions and learn. We had a lot of fun and also learned a lot at the same time.

Gudrun Bickelq - Tricentis GmbH

Data and Analytics - from the ground up

Kamil is very knowledgeable and nice person, I have learned from him a lot.

Aleksandra Szubert - Digital Jersey

Introduction to Deep Learning

The deep knowledge of the trainer about the topic.

Sebastian Görg - FANUC Europe Corporation

Introduction to Drools 6 for Developers

Positive and optimistic attitude. Gives good answers to questions.

Emil Krabbe Nielsen - Eldor Technology AS

Data Visualization

I thought that the information was interesting.

Allison May - Virginia Department of Education

Spark for Developers

The trainer made the class interesting and entertaining which helps quite a bit with all day trainings

Ryan Speelman -

Machine Learning and Deep Learning

Coverage and depth of topics

Anirban Basu - Travix International

Solr for Developers

The trainer has provided great example for each topic

Onoriode Ikede - Government of Prince Edward Island

Advanced Deep Learning

The exercises are sufficiently practical and do not need a high knowledge in Python to be done.

Alexandre GIRARD - OSONES

Cassandra for Developers

The practical exercises and examples of implementing examples of real models and contexts

Leandro Gomes - Farfetch Portugal - Unipessoal, Lda

Cassandra for Developers

The last exercise was very good.

José Monteiro - Farfetch Portugal - Unipessoal, Lda

Cassandra for Developers

All technical explanation and theoretical introduction

André Santos - Farfetch Portugal - Unipessoal, Lda

Administrator Training for Apache Hadoop

Many hands-on sessions.

Jacek Pieczątka - OPITZ CONSULTING Deutschland GmbH

Data Visualization

Good real world examples, reviews of existing reports

Ronald Parrish - Virginia Department of Education

Neural Network in R

We gained some knowledge about NN in general, and what was the most interesting for me were the new types of NN that are popular nowadays.

Tea Poklepovic - Faculty of Economics and Business Zagreb

Data and Analytics - from the ground up

I enjoyed the Excel sheets provided having the exercises with examples. This meant that if Kamil was held up helping other people, I could crack on with the next parts.

Luke Pontin - Digital Jersey

Data Protection

All

Marjorie Pepito - V.Ships Services Oceana, Inc.

Introduction to the use of neural networks

Ann created a great environment to ask questions and learn. We had a lot of fun and also learned a lot at the same time.

Gudrun Bickelq - Tricentis GmbH

Introduction to Drools 6 for Developers

Interactive approach, keeps the training interesting.

Elaine McCarthy - Sun Life Financial

A practical introduction to Data Analysis and Big Data

Willingness to share more

Balaram Chandra Paul - MOL Information Technology Asia Limited

Introduction to Drools 6 for Developers

Interactive trainer, helpful and had lots of suggestions for participants.

Liam Donovan - Sun Life Financial

Applied Machine Learning

ref material to use later was very good

PAUL BEALES - Seagate Technology

Data Mining & Machine Learning with R

The trainer was so knowledgeable and included areas I was interested in

Mohamed Salama - Edmonton Police Service

Applied Machine Learning

ref material to use later was very good.

PAUL BEALES- Seagate Technology.

Data Visualization

I really appreciated that Jeff utilized data and examples that were applicable to education data. He made it interesting and interactive.

Carol Wells Bazzichi - Virginia Department of Education

Beyond the relational database: neo4j

Flexibility to blend in with Autodata related details to get more of a real world scenario as we went on.

Autodata Ltd

Data Visualization

Trainer was enthusiastic.

Diane Lucas - Virginia Department of Education

Solr for Developers

He is provided great example for each topic

Onoriode Ikede - Government of Prince Edward Island

Data Visualization

Content / Instructor

Craig Roberson - Virginia Department of Education

Cassandra for Developers

There was a lot of knowledge and material shared that will help me to do my current tasks.

Miguel Fernandes - Farfetch Portugal - Unipessoal, Lda

Introduction to Drools 6 for Developers

Exercises in Eclipse

Anna Beluskova - Sun Life Financial

Cassandra for Developers

Very good explanations with in depth examples

Rui Magalhaes - Farfetch Portugal - Unipessoal, Lda

Introduction to Drools 6 for Developers

Nice to see some other editors, other details around bpmn

Derek Doherty - Sun Life Financial

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

Cassandra Administration

The 1:1 style meant the training was tailored to my individual needs.

Andy McGuigan - Axon Public Safety UK Limited

A practical introduction to Data Analysis and Big Data

It covered a broad range of information.

Continental AG / Abteilung: CF IT Finance

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

A practical introduction to Data Analysis and Big Data

presentation of technologies

Continental AG / Abteilung: CF IT Finance

Hadoop Administration

What did you like the most about the training?:

Detailed on each tool.

Amber Mehrotra - NIIT Limited

Introduction to Deep Learning

Exercises after each topic were really helpful, despite there were too complicated at the end. In general, the presented material was very interesting and involving! Exercises with image recognition were great.

- Dolby Poland Sp. z o.o.

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

Data Mining and Analysis

The hands on exercise and the trainer capacity to explain complex topics in simple terms

youssef chamoun - Murex Services S.A.L (Offshore)

Introduction to Deep Learning

Topic. Very interesting!

Piotr - Dolby Poland Sp. z o.o.

Introduction to Deep Learning

The topic is very interesting

Wojciech Baranowski - Dolby Poland Sp. z o.o.

Introduction to Drools 6

The course was thorough and was better than wandering through the many books and articles found on the web. I liked the hands on approach and feeling of being able to learn by doing and learning from my mistakes. This something we will use for our software development and testing.

Thank you!!!

Martin Arrambide - Sandia National Laboratories

Hadoop for Developers

The trainer clearly understood the subject matter very well. He managed to articulate the subject areas well and demonstrated using practicals how to apply that knowledge.

Matthew Tindall - Knowledgepool

Beyond the relational database: neo4j

Flexibility to blend in with Autodata related details to get more of a real world scenario as we went on.

Autodata Ltd

Programas de los Cursos de Inteligencia Artificial

Código Nombre Duración Información General
bdbiga Inteligencia de Negocios de Big Data para Agencias del Gobierno 35 horas Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que los negocios se llevan a cabo en muchas industrias, incluyendo el gobierno. Los índices de generación de gobierno y de archivos digitales están aumentando debido al rápido crecimiento de dispositivos y aplicaciones móviles, sensores y dispositivos inteligentes, soluciones de cloud computing y portales orientados a los ciudadanos. A medida que la información digital se expande y se vuelve más compleja, la gestión de la información, el procesamiento, el almacenamiento, la seguridad y la disposición también se vuelven más complejos. Las nuevas herramientas de captura, búsqueda, descubrimiento y análisis están ayudando a las organizaciones a obtener información sobre sus datos no estructurados. El mercado gubernamental está en un punto de inflexión, al darse cuenta de que la información es un activo estratégico y el gobierno necesita proteger, aprovechar y analizar información estructurada y no estructurada para servir mejor y cumplir con los requisitos de la misión. A medida que los líderes del gobierno se esfuerzan por evolucionar las organizaciones impulsadas por datos para cumplir con éxito la misión, están sentando las bases para correlacionar dependencias a través de eventos, personas, procesos e información. Las soluciones gubernamentales de alto valor se crearán a partir de un mashup de las tecnologías más perjudiciales: Dispositivos y aplicaciones móviles Servicios en la nube Tecnologías de redes sociales y redes Big Data y análisis IDC predice que para el año 2020, la industria de TI alcanzará los $ 5 billones, aproximadamente $ 1.7 trillones más que hoy, y que el 80% del crecimiento de la industria será impulsado por estas tecnologías de la 3ª Plataforma. A largo plazo, estas tecnologías serán herramientas clave para hacer frente a la complejidad del aumento de la información digital. Big Data es una de las soluciones inteligentes de la industria y permite al gobierno tomar mejores decisiones tomando medidas basadas en patrones revelados al analizar grandes volúmenes de datos relacionados y no relacionados, estructurados y no estructurados. Pero el logro de estas hazañas lleva mucho más que la simple acumulación de cantidades masivas de datos. "Haciendo sentido de estos volúmenes de Big Datarequires herramientas de vanguardia y" tecnologías que pueden analizar y extraer conocimiento útil de las corrientes de información vasta y diversa ", Tom Kalil y Fen Zhao de la Oficina de la Casa Blanca de Política Científica y Tecnológica escribió en un post en el blog de OSTP. La Casa Blanca dio un paso hacia ayudar a las agencias a encontrar estas tecnologías cuando estableció la Iniciativa Nacional de Investigación y Desarrollo de Grandes Datos en 2012. La iniciativa incluyó más de $ 200 millones para aprovechar al máximo la explosión de Big Data y las herramientas necesarias para analizarla . Los desafíos que plantea Big Data son casi tan desalentadores como su promesa es alentadora. El almacenamiento eficiente de los datos es uno de estos desafíos. Como siempre, los presupuestos son ajustados, por lo que las agencias deben minimizar el precio por megabyte de almacenamiento y mantener los datos de fácil acceso para que los usuarios puedan obtenerlo cuando lo deseen y cómo lo necesitan. Copia de seguridad de grandes cantidades de datos aumenta el reto. Otro gran desafío es analizar los datos de manera eficaz. Muchas agencias emplean herramientas comerciales que les permiten tamizar las montañas de datos, detectando tendencias que pueden ayudarles a operar de manera más eficiente. (Un estudio reciente de MeriTalk encontró que los ejecutivos federales de TI piensan que Big Data podría ayudar a las agencias a ahorrar más de 500.000 millones de dólares mientras cumplen los objetivos de la misión). Las herramientas de Big Data desarrolladas a medida también están permitiendo a las agencias abordar la necesidad de analizar sus datos. Por ejemplo, el Grupo de Análisis de Datos Computacionales del Laboratorio Nacional de Oak Ridge ha puesto a disposición de otras agencias su sistema de análisis de datos Piranha. El sistema ha ayudado a los investigadores médicos a encontrar un vínculo que puede alertar a los médicos sobre los aneurismas de la aorta antes de que hagan huelga. También se utiliza para tareas más mundanas, tales como tamizar a través de currículos para conectar candidatos de trabajo con los gerentes de contratación.
dataminr Minería de Datos con R 14 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has a wide variety of packages for data mining.
hadoopdeva Hadoop Avanzado para Desarrolladores 21 horas Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop. Audiencia: desarrolladores Duración: tres días Formato: conferencias (50%) y laboratorios prácticos (50%).
dmmlr Minería de Datos y Aprendizaje Automático con R 14 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has a wide variety of packages for data mining.
datavis1 Visualización de Datos 28 horas Este curso está dirigido a ingenieros y tomadores de decisiones que trabajan en la minería de datos y el descubrimiento de conocimientos. Aprenderá a crear parcelas eficaces y formas de presentar y representar sus datos de una manera que atraiga a los tomadores de decisiones y les ayude a entender la información oculta.
bspkaml Machine Learning 21 horas This course will be a combination of theory and practical work with specific examples used throughout the event.
accumulo Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data 21 horas Apache Accumulo es un almacén de claves / valores ordenados y distribuidos que proporciona almacenamiento y recuperación de datos robustos y escalables. Está basado en el diseño de BigTable de Google y está impulsado por Apache Hadoop, Apache Zookeeper y Apache Thrift.   Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo. Audiencia      Desarrolladores de aplicaciones      Ingenieros de software      Consultores técnicos Formato del curso      Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión  
facebooknmt Facebook NMT: Setting up a neural machine translation system 7 horas Fairseq es un conjunto de herramientas de aprendizaje de secuencia a secuencia de código abierto creado por Facebok para su uso en la traducción automática neuronal (NMT). En esta capacitación, los participantes aprenderán a usar Fairseq para llevar a cabo la traducción del contenido de muestra. Al final de esta capacitación, los participantes tendrán el conocimiento y la práctica necesarios para implementar una solución de traducción automática basada en Fairseq. Audiencia Especialistas en localización con experiencia técnica Gerentes de contenido global Ingenieros de localización Desarrolladores de software a cargo de implementar soluciones de contenido global Formato del curso Conferencia parcial, discusión parcial, práctica práctica intensa Nota Si desea utilizar contenido específico en el idioma de origen y de destino, contáctenos para organizarlo.
flink Flink for scalable stream and batch data processing 28 horas Apache Flink is an open-source framework for scalable stream and batch data processing. This instructor-led, live training introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application. By the end of this training, participants will be able to: Set up an environment for developing data analysis applications Package, execute, and monitor Flink-based, fault-tolerant, data streaming applications Manage diverse workloads Perform advanced analytics using Flink ML Set up a multi-node Flink cluster Measure and optimize performance Integrate Flink with different Big Data systems Compare Flink capabilities with those of other big data processing frameworks Audience Developers Architects Data engineers Analytics professionals Technical managers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
kdbplusandq kdb+ and q: Analyze time series data 21 horas kdb+ is an in-memory, column-oriented database and q is its built-in, interpreted vector-based language. In kdb+, tables are columns of vectors and q is used to perform operations on the table data as if it was a list. kdb+ and q are commonly used in high frequency trading and are popular with the major financial institutions, including Goldman Sachs, Morgan Stanley, Merrill Lynch, JP Morgan, etc. In this instructor-led, live training, participants will learn how to create a time series data application using kdb+ and q. By the end of this training, participants will be able to: Understand the difference between a row-oriented database and a column-oriented database Select data, write scripts and create functions to carry out advanced analytics Analyze time series data such as stock and commodity exchange data Use kdb+'s in-memory capabilities to store, analyze, process and retrieve large data sets at high speed Think of functions and data at a higher level than the standard function(arguments) approach common in non-vector languages Explore other time-sensitive applications for kdb+, including energy trading, telecommunications, sensor data, log data, and machine and network usage monitoring Audience Developers Database engineers Data scientists Data analysts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
matlabpredanalytics Matlab for Predictive Analytics 21 horas Predictive analytics is the process of using data analytics to make predictions about the future. This process uses data along with data mining, statistics, and machine learning techniques to create a predictive model for forecasting future events. In this instructor-led, live training, participants will learn how to use Matlab to build predictive models and apply them to large sample data sets to predict future events based on the data. By the end of this training, participants will be able to: Create predictive models to analyze patterns in historical and transactional data Use predictive modeling to identify risks and opportunities Build mathematical models that capture important trends Use data to from devices and business systems to reduce waste, save time, or cut costs Audience Developers Engineers Domain experts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
bigdatabicriminal Big Data Business Intelligence for Criminal Intelligence Analysis 35 horas Advances in technologies and the increasing amount of information are transforming how law enforcement is conducted. The challenges that Big Data pose are nearly as daunting as Big Data's promise. Storing data efficiently is one of these challenges; effectively analyzing it is another. In this instructor-led, live training, participants will learn the mindset with which to approach Big Data technologies, assess their impact on existing processes and policies, and implement these technologies for the purpose of identifying criminal activity and preventing crime. Case studies from law enforcement organizations around the world will be examined to gain insights on their adoption approaches, challenges and results. By the end of this training, participants will be able to: Combine Big Data technology with traditional data gathering processes to piece together a story during an investigation Implement industrial big data storage and processing solutions for data analysis Prepare a proposal for the adoption of the most adequate tools and processes for enabling a data-driven approach to criminal investigation Audience Law Enforcement specialists with a technical background Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
iotemi Internet de las Cosas (IoT) para Empresarios, Gerentes e Inversores 21 horas A diferencia de otras tecnologías, IoT es mucho más complejo que abarca casi todas las ramas del núcleo de Ingeniería: Mecánica, Electrónica, Firmware, Middleware, Cloud, Analytics y Mobile. Para cada una de sus capas de ingeniería, hay aspectos de economía, estándares, regulaciones y estado de la técnica en evolución. Esto es para los primeros tiempos, se ofrece un curso modesto para cubrir todos estos aspectos críticos de la ingeniería de IoT. Resumen Un programa de entrenamiento avanzado que cubre el estado actual del arte en Internet de las Cosas Cortes en múltiples dominios de tecnología para desarrollar el conocimiento de un sistema IoT y sus componentes y cómo puede ayudar a las empresas y organizaciones. Demo en vivo de las aplicaciones modelo IoT para mostrar implementaciones prácticas de IoT en diferentes dominios de la industria, como Industrial IoT, Smart Cities, Retail, Travel & Transportation y casos de uso relacionados con dispositivos conectados y cosas Público objetivo Gerentes responsables de los procesos comerciales y operativos dentro de sus respectivas organizaciones y quieren saber cómo aprovechar IoT para hacer que sus sistemas y procesos sean más eficientes. Emprendedores e Inversores que buscan desarrollar nuevas empresas y desean desarrollar una mejor comprensión del panorama de la tecnología IoT para ver cómo pueden aprovecharla de manera efectiva. Duración 3 días (8 horas / día) Las estimaciones para Internet of Things o el valor de mercado de IoT son masivas, ya que, por definición, el IoT es una capa integrada y difusa de dispositivos, sensores y potencia informática que superpone a industrias de consumo, de empresa a empresa y gubernamentales. El IoT representará un número cada vez mayor de conexiones: 1.900 millones de dispositivos en la actualidad y 9.000 millones en 2018. Ese año, será aproximadamente igual a la cantidad de teléfonos inteligentes, televisores inteligentes, tabletas, computadoras portátiles y PC combinadas. En el espacio para el consumidor, muchos productos y servicios ya han entrado en el IoT, incluyendo cocina y electrodomésticos, estacionamiento, RFID, productos de iluminación y calefacción, y varias aplicaciones en Internet Industrial. Sin embargo, las tecnologías subyacentes de IoT no son nada nuevas, ya que la comunicación M2M existía desde el nacimiento de Internet. Sin embargo, lo que cambió en los últimos años es la aparición de tecnologías inalámbricas de bajo costo agregadas por la abrumadora adaptación de teléfonos inteligentes y tabletas en todos los hogares. El crecimiento explosivo de los dispositivos móviles condujo a la demanda actual de IoT. Debido a las oportunidades ilimitadas en el negocio de IoT, un gran número de pequeños y medianos empresarios se subieron al carro de la fiebre del oro de IoT. También debido a la aparición de la electrónica de código abierto y la plataforma IoT, el costo de desarrollo del sistema IoT y la gestión adicional de su producción considerable es cada vez más asequible. Los propietarios de productos electrónicos existentes están experimentando presión para integrar su dispositivo con Internet o la aplicación móvil. Esta capacitación está destinada a una revisión tecnológica y empresarial de una industria emergente para que los entusiastas / emprendedores de IoT puedan comprender los conceptos básicos de tecnología y negocio de IoT. Objetivo del curso El objetivo principal del curso es presentar opciones tecnológicas emergentes, plataformas y estudios de casos de implementación de IoT en automatización de hogares y ciudades (hogares y ciudades inteligentes), Internet Industrial, salud, Gobierno, Mobile Cellular y otras áreas. Introducción básica de todos los elementos de IoT-Mechanical, electrónica / plataforma de sensores, protocolos inalámbricos y alámbricos, integración móvil a electrónica, integración móvil a empresa, análisis de datos y plano de control total Protocolos inalámbricos M2M para IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT +: ¿Cuándo y dónde usar cuál? Aplicación móvil / de escritorio / web para registro, adquisición de datos y control - Plataforma de adquisición de datos M2M disponible para IoT - Xively, Omega y NovoTech, etc. Problemas de seguridad y soluciones de seguridad para IoT Plataforma electrónica de código abierto / comercial para IoT-Raspberry Pi, Arduino, ArmMbedLPC, etc. Plataforma cloud de empresa abierta / comercial para aplicaciones AWS-IoT, Azure -IOT, Watson-IOT en la nube, además de otras nubes menores de IoT Estudios de negocios y tecnología de algunos de los dispositivos comunes de IoT como Domótica, Alarma de humo, vehículos, militares, salud en el hogar, etc.
apachemdev Apache Mahout para Desarrolladores 14 horas Audiencia Desarrolladores involucrados en proyectos que usan el aprendizaje automático con Apache Mahout. Formato Manos en la introducción al aprendizaje de la máquina. El curso se imparte en un formato de laboratorio basado en casos reales de uso práctico.
hadoopdev Hadoop para Desarrolladores (4 días) 28 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. Este curso presentará un desarrollador a varios componentes (HDFS, MapReduce, Pig, Hive y HBase) Hadoop ecosistema.
rprogda Programación R para el Análisis de Datos 14 horas Este curso es parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología)
genealgo Algoritmos Genéticos 28 horas Este curso de cuatro días tiene como objetivo enseñar cómo funcionan los algoritmos genéticos; también cubre cómo seleccionar los parámetros del modelo de un algoritmo genético; hay muchas aplicaciones para algoritmos genéticos en este curso y los problemas de optimización se abordan con los algoritmos genéticos.
dsbda Ciencia de Datos para Big Data Analytics 35 horas Big data is data sets that are so voluminous and complex that traditional data processing application software are inadequate to deal with them. Big data challenges include capturing data, data storage, data analysis, search, sharing, transfer, visualization, querying, updating and information privacy.
druid Druid:Construir un Sistema Rápido y en Tiempo Real de Análisis de Datos 21 horas Druid es un almacén de datos distribuido orientado a columnas y de código abierto escrito en Java. Fue diseñado para ingerir rápidamente cantidades masivas de datos de eventos y ejecutar consultas OLAP de baja latencia en esos datos. Druid se usa comúnmente en aplicaciones de inteligencia empresarial para analizar grandes volúmenes de datos históricos y en tiempo real. También es adecuado para alimentar cuadros de mandos analíticos rápidos e interactivos para usuarios finales. Druid es utilizado por compañías como Alibaba, Airbnb, Cisco, eBay, Netflix, Paypal y Yahoo. En este curso, exploramos algunas de las limitaciones de las soluciones de almacenamiento de datos y discutimos cómo Druid puede complementar esas tecnologías para formar una pila de análisis de transmisión flexible y escalable. Analizamos muchos ejemplos, ofreciendo a los participantes la oportunidad de implementar y probar soluciones basadas en Druid en un entorno de laboratorio. Audiencia     Desarrolladores de aplicaciones     Ingenieros de software     Consultores técnicos     Profesionales de DevOps     Ingenieros de arquitectura Formato del curso     Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
scilab Curso de Scilab 14 horas Scilab es un lenguaje de alto nivel bien desarrollado, gratuito y de código abierto para la manipulación de datos científicos. Utilizado para estadísticas, gráficos y animación, simulación, procesamiento de señales, física, optimización y más, su estructura de datos central es la matriz, lo que simplifica muchos tipos de problemas en comparación con alternativas como FORTRAN y derivados C. Es compatible con lenguajes como C, Java y Python, por lo que es adecuado como un complemento de los sistemas existentes. En esta capacitación dirigida por un instructor, los participantes aprenderán las ventajas de Scilab en comparación con alternativas como Matlab, los principios básicos de la sintaxis de Scilab, así como algunas funciones avanzadas, y la interfaz con otros lenguajes ampliamente utilizados, según la demanda. El curso concluirá con un breve proyecto centrado en el procesamiento de imágenes. Al final de esta capacitación, los participantes comprenderán las funciones básicas y algunas funciones avanzadas de Scilab y tendrán los recursos para continuar expandiendo su conocimiento. Audiencia Científicos e ingenieros de datos, especialmente con interés en el procesamiento de imágenes y el reconocimiento facial Formato del curso Conferencia parcial, discusión parcial, ejercicios y práctica práctica intensiva, con un proyecto final
alluxio Alluxio: Unifying disparate storage systems 7 horas Alexio is an open-source virtual distributed storage system that unifies disparate storage systems and enables applications to interact with data at memory speed. It is used by companies such as Intel, Baidu and Alibaba. In this instructor-led, live training, participants will learn how to use Alexio to bridge different computation frameworks with storage systems and efficiently manage multi-petabyte scale data as they step through the creation of an application with Alluxio. By the end of this training, participants will be able to: Develop an application with Alluxio Connect big data systems and applications while preserving one namespace Efficiently extract value from big data in any storage format Improve workload performance Deploy and manage Alluxio standalone or clustered Audience Data scientist Developer System administrator Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hypertable Hypertable: Deploy a BigTable like database 14 horas Hypertable is an open-source software database management system based on the design of Google's Bigtable. In this instructor-led, live training, participants will learn how to set up and manage a Hypertable database system. By the end of this training, participants will be able to: Install, configure and upgrade a Hypertable instance Set up and administer a Hypertable cluster Monitor and optimize the performance of the database Design a Hypertable schema Work with Hypertable's API Troubleshoot operational issues Audience Developers Operations engineers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Part lecture, part discussion, exercises and heavy hands-on practice
matlabdl Matlab for Deep Learning 14 horas In this instructor-led, live training, participants will learn how to use Matlab to design, build, and visualize a convolutional neural network for image recognition. By the end of this training, participants will be able to: Build a deep learning model Automate data labeling Work with models from Caffe and TensorFlow-Keras Train data using multiple GPUs, the cloud, or clusters Audience Developers Engineers Domain experts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
botsazure Developing Intelligent Bots with Azure 14 horas The Azure Bot Service combines the power of the Microsoft Bot Framework and Azure functions to enable rapid development of intelligent bots. In this instructor-led, live training, participants will learn how to easily create an intelligent bot using Microsoft Azure By the end of this training, participants will be able to: Learn the fundamentals of intelligent bots Learn how to create intelligent bots using cloud applications Understand how to use the Microsoft Bot Framework, the Bot Builder SDK, and the Azure Bot Service Understand how to design bots using bot patterns Develop their first intelligent bot using Microsoft Azure Audience Developers Hobbyists Engineers IT Professionals Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
droolsrlsadm Administración de Reglas Drools 21 horas Este curso ha sido preparado para personas que están involucradas en la administración de activos de conocimiento corporativo (reglas, procesos) como administradores de sistemas, integradores de sistemas, administradores de servidores de aplicaciones, etc ... Utilizamos la versión comunitaria estable más reciente de Drools para ejecutar este curso, Pero las versiones más antiguas también son posibles si se acuerda antes de la reserva.
optaprac OptaPlanner en la Práctica 21 horas Este curso es un enfoque práctico a la herramienta OptaPLanner, proporcionando a los partidarios todas como herramientas para obtener un conocimiento introductorio único y funcional que permiten realizar como funciones basicas nessa ferramenta.
cassdev Cassandra para Desarrolladores 21 horas Este curso presentará Cassandra - una popular base de datos NoSQL. Cubrirá los principios de Cassandra, la arquitectura y el modelo de datos. Los estudiantes aprenderán el modelado de datos en CQL (Cassandra Query Language) en laboratorios prácticos e interactivos. Esta sesión también discute Cassandra internals y algunos temas de administración. Duración: 3 días Audiencia: Desarrolladores
bigddbsysfun Big Data & Fundamentos de Sistemas de Bases de Datos 14 horas El curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
dlv Aprendizaje Profundo para Vision 21 horas Audiencia Este curso es adecuado para los investigadores e ingenieros de Deep Learning interesados en utilizar las herramientas disponibles (en su mayoría de código abierto) para analizar imágenes de computadora Este curso proporciona ejemplos prácticos.
IntroToAvro Apache Avro: Serialización de Datos para Aplicaciones Distribuidas 14 horas Este curso es para Desarrolladores Formato del curso Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
nlpwithr Procesamiento de Lenguaje Natural (NLP) con R 21 horas Se estima que los datos no estructurados representan más del 90 por ciento de todos los datos, gran parte de ellos en forma de texto. Las publicaciones del blog, los tweets, los medios sociales y otras publicaciones digitales añaden continuamente a este creciente cuerpo de datos. Este curso se centra en la extracción de información y significado de estos datos. Utilizando las bibliotecas de lenguaje y procesamiento de lenguaje natural (NLP), combinamos conceptos y técnicas de la informática, la inteligencia artificial y la lingüística computacional para entender algorítmicamente el significado detrás de los datos de texto. Las muestras de datos están disponibles en varios idiomas según los requisitos del cliente. Al final de este entrenamiento los participantes serán capaces de preparar conjuntos de datos (grandes y pequeños) de fuentes dispares, a continuación, aplicar los algoritmos adecuados para analizar e informar sobre su significado. Audiencia Lingüistas y programadores Formato del curso Parte conferencia, discusión de la parte, práctica práctica pesada, pruebas ocasionales para calibrar la comprensión
storm Curso de Apache Storm 28 horas Apache Storm es un motor de computación distribuido en tiempo real que se utiliza para habilitar la inteligencia empresarial en tiempo real. Lo hace al permitir que las aplicaciones procesen de forma confiable flujos de datos ilimitados (a.k.a. procesamiento de flujo). "Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes". En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real. Algunos de los temas incluidos en esta capacitación incluyen: Apache Storm en el contexto de Hadoop Trabajando con datos ilimitados Cálculo continuo Análisis en tiempo real Procesamiento distribuido de RPC y ETL ¡Solicite este curso ahora! Audiencia Desarrolladores de software y ETL Profesionales de mainframe Científicos de datos Analistas de Big Data Profesionales de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
apex Apache Apex: Processing big data-in-motion 21 horas Apache Apex is a YARN-native platform that unifies stream and batch processing. It processes big data-in-motion in a way that is scalable, performant, fault-tolerant, stateful, secure, distributed, and easily operable. This instructor-led, live training introduces Apache Apex's unified stream processing architecture and walks participants through the creation of a distributed application using Apex on Hadoop. By the end of this training, participants will be able to: Understand data processing pipeline concepts such as connectors for sources and sinks, common data transformations, etc. Build, scale and optimize an Apex application Process real-time data streams reliably and with minimum latency Use Apex Core and the Apex Malhar library to enable rapid application development Use the Apex API to write and re-use existing Java code Integrate Apex into other applications as a processing engine Tune, test and scale Apex applications Audience Developers Enterprise architects Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
pythonadvml Python for Advanced Machine Learning 21 horas In this instructor-led, live training, participants will learn the most relevant and cutting-edge machine learning techniques in Python as they build a series of demo applications involving image, music, text, and financial data. By the end of this training, participants will be able to: Implement machine learning algorithms and techniques for solving complex problems Apply deep learning and semi-supervised learning to applications involving image, music, text, and financial data Push Python algorithms to their maximum potential Use libraries and packages such as NumPy and Theano Audience Developers Analysts Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
powerbiforbiandanalytics Power BI for Business Analysts 21 horas Microsoft Power BI is a free Software as a Service (SaaS) suite for analyzing data and sharing insights. Power BI dashboards provide a 360-degree view of the most important metrics in one place, updated in real time, and available on all of their devices. In this instructor-led, live training, participants will learn how to use Microsoft Power Bi to analyze and visualize data using a series of sample data sets. By the end of this training, participants will be able to: Create visually compelling dashboards that provide valuable insights into data Obtain and integrate data from multiple data sources Build and share visualizations with team members Adjust data with Power BI Desktop Audience Business managers Business analystss Data analysts Business Intelligence (BI) and Data Warehouse (DW) teams Report developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice  
devbot Developing a Bot 14 horas A bot or chatbot is like a computer assistant that is used to automate user interactions on various messaging platforms and get things done faster without the need for users to speak to another human. In this instructor-led, live training, participants will learn how to get started in developing a bot as they step through the creation of sample chatbots using bot development tools and frameworks. By the end of this training, participants will be able to: Understand the different uses and applications of bots Understand the complete process in developing bots Explore the different tools and platforms used in building bots Build a sample chatbot for Facebook Messenger Build a sample chatbot using Microsoft Bot Framework Audience Developers interested in creating their own bot Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
brmsdrools Gestión de Reglas de Negocios (BRMS) con Drools 7 horas Este curso está dirigido a arquitectos empresariales, analistas de negocios y sistemas y administradores que quieran aplicar las reglas de negocio a su solución. Con Drools puedes escribir tus reglas de negocio usando lenguaje casi natural, reduciendo así la brecha entre negocio y TI.
d2dbdpa De los Datos a la Decisión con Big Data y Análisis Predictivo 21 horas Audiencia Si intenta dar sentido a los datos a los que tiene acceso o desea analizar datos no estructurados disponibles en la red (como Twitter, Linked in, etc ...) este curso es para usted. Está dirigido principalmente a los tomadores de decisiones y las personas que necesitan elegir qué datos vale la pena recopilar y qué vale la pena analizar. No está dirigido a las personas que configuran la solución, esas personas se beneficiarán de la imagen grande sin embargo. Modo de entrega Durante el curso se presentarán a los delegados ejemplos prácticos de la mayoría de las tecnologías de código abierto. Las conferencias cortas serán seguidas por la presentación y los ejercicios simples por los participantes Contenido y software utilizados Todo el software utilizado se actualiza cada vez que se ejecuta el curso, así que verificamos las versiones más recientes posibles. Cubre el proceso de obtener, formatear, procesar y analizar los datos, para explicar cómo automatizar el proceso de toma de decisiones con el aprendizaje automático.
datamin Minería de Datos 21 horas Curso puede ser proporcionado con cualquier herramienta, incluyendo libre de código abierto de minería de datos de software y aplicaciones
hadoopba Hadoop para Analistas de Negocios 21 horas Apache Hadoop es el marco más popular para el procesamiento de Big Data. Hadoop proporciona una capacidad analítica rica y profunda, y está haciendo in-roads en el mundo analítico de BI tradicional. Este curso presentará a un analista a los componentes principales del sistema Hadoop eco y sus análisis Audiencia Analistas de Negocios Duración tres días Formato Conferencias y manos sobre laboratorios.
cpb100 CPB100: Google Cloud Platform Big Data & Fundamentos de Aprendizaje Automático 8 horas Este curso dirigido por un instructor de un día introduce a los participantes a las grandes capacidades de datos de Google Cloud Platform. A través de una combinación de presentaciones, demostraciones y laboratorios prácticos, los participantes obtienen una visión general de la plataforma Google Cloud y una vista detallada de las capacidades de procesamiento de datos y de aprendizaje automático. Este curso muestra la facilidad, flexibilidad y potencia de las grandes soluciones de datos en Google Cloud Platform. Este curso enseña a los participantes las siguientes habilidades: Identifique el propósito y el valor de los productos clave de Big Data y de aprendizaje automático en Google Cloud Platform. Utilice Cloud SQL y Cloud Dataproc para migrar las cargas de trabajo existentes de MySQL y Hadoop / Pig / Spark / Hive a Google Cloud Platform. Emplear BigQuery y Cloud Datalab para realizar análisis de datos interactivos. Entrene y utilice una red neuronal usando TensorFlow. Emplear API de ML. Elija entre diferentes productos de procesamiento de datos en Google Cloud Platform. Esta clase está destinada a lo siguiente: Analistas de datos, Científicos de datos, Analistas de negocios comenzando con Google Cloud Platform. Responsables del diseño de oleoductos y arquitecturas para el procesamiento de datos, creación y mantenimiento de modelos de aprendizaje y modelos estadísticos, consulta de conjuntos de datos, visualización de resultados de consultas y creación de informes. Ejecutivos y responsables de la toma de decisiones de TI que evalúan Google Cloud Platform para su uso por los científicos de datos.
aiauto Inteligencia Artificial en Automoción 14 horas Este curso cubre AI (enfatizando Aprendizaje Automático y Aprendizaje Profundo) en la Industria Automotriz. Ayuda a determinar qué tecnología puede (potencialmente) utilizarse en situaciones múltiples en un automóvil: desde la simple automatización, el reconocimiento de imágenes hasta la toma de decisiones autónoma.
Piwik Introducción a Piwik 21 horas Audiencia Analista web Analistas de datos Investigación de mercado Profesionales de marketing y ventas Administradores del sistema Formato de curso Conferencia de parte, discusión parcial, práctica práctica intensa  
voldemort Voldemort: configuración de un almacén de datos distribuidos de clave-valor 14 horas Voldemort es un almacén de datos distribuidos de código abierto que está diseñado como una tienda de valores clave. Se utiliza en LinkedIn por numerosos servicios críticos que alimentan una gran parte del sitio. Este curso presentará la arquitectura y las capacidades de Voldomort y guiará a los participantes a través de la configuración y la aplicación de un almacén de datos distribuidos de valor clave. Audiencia      Desarrolladores de software      Administradores del sistema      Ingenieros de DevOps Formato del curso      Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
glusterfs GlusterFS para administradores de sistemas 21 horas GlusterFS es un sistema de almacenamiento de archivos distribuidos de código abierto que puede escalar hasta petabytes de capacidad. GlusterFS está diseñado para proporcionar espacio adicional según los requisitos de almacenamiento del usuario. Una aplicación común para GlusterFS son los sistemas de almacenamiento en la nube. En esta capacitación guiada por un instructor, los participantes aprenderán cómo usar el hardware normal y listo para usar para crear e implementar un sistema de almacenamiento que sea escalable y esté siempre disponible. Al final del curso, los participantes podrán: Instale, configure y mantenga un sistema GlusterFS a escala completa. Implemente sistemas de almacenamiento a gran escala en diferentes tipos de entornos. Audiencia Administradores del sistema Administradores de almacenamiento Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica práctica.  
vespa Vespa: Serving large-scale data in real-time 14 horas Vespa an open-source big data processing and serving engine created by Yahoo.  It is used to respond to user queries, make recommendations, and provide personalized content and advertisements in real-time. This instructor-led, live training introduces the challenges of serving large-scale data and walks participants through the creation of an application that can compute responses to user requests, over large datasets in real-time. By the end of this training, participants will be able to: Use Vespa to quickly compute data (store, search, rank, organize) at serving time while a user waits Implement Vespa into existing applications involving feature search, recommendations, and personalization Integrate and deploy Vespa with existing big data systems such as Hadoop and Storm. Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
radvml Advanced Machine Learning with R 21 horas In this instructor-led, live training, participants will learn advanced techniques for Machine Learning with R as they step through the creation of a real-world application. By the end of this training, participants will be able to: Use techniques as hyper-parameter tuning and deep learning Understand and implement unsupervised learning techniques Put a model into production for use in a larger application Audience Developers Analysts Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
mlbankingr Machine Learning for Banking (with R) 28 horas In this instructor-led, live training, participants will learn how to apply machine learning techniques and tools for solving real-world problems in the banking industry. R will be used as the programming language. Participants first learn the key principles, then put their knowledge into practice by building their own machine learning models and using them to complete a number of live projects. Audience Developers Data scientists Banking professionals with a technical background Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
BDATR Big Data Analytics para reguladores de telecomunicaciones 16 horas Para cumplir con el cumplimiento de los reguladores, los CSP (proveedores de servicios de comunicación) pueden acceder a Big Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que ser de beneficio mutuo entre los reguladores y los CSP. 2 días de curso: 8 módulos, 2 horas cada uno = 16 horas
aiint Visión general de Inteligencia Artificial 7 horas Este curso ha sido creado para gerentes, arquitectos de soluciones, oficiales de innovación, CTO, arquitectos de software y todos los interesados en la visión general de la inteligencia artificial aplicada y el pronóstico más cercano para su desarrollo.
appliedml Aprendizaje Automático Aplicado 14 horas Este curso de capacitación es para personas que deseen aplicar Aprendizaje de la Máquina en aplicaciones prácticas. Audiencia Este curso es para científicos de datos y estadísticos que tienen cierta familiaridad con las estadísticas y saben cómo programar R (o Python u otro idioma elegido). El énfasis de este curso está en los aspectos prácticos de la preparación de datos / modelos, la ejecución, el análisis post hoc y la visualización. El propósito es dar aplicaciones prácticas al Aprendizaje Automático a los participantes interesados en aplicar los métodos en el trabajo. Se utilizan ejemplos específicos del sector para hacer que la formación sea relevante para el público.
apacheh Capacitación de Administrador para Apache Hadoop 35 horas Audiencia: El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido Gol: Conocimiento profundo sobre administración de clúster de Hadoop.
dataar Análisis de Datos con R 21 horas R es un entorno de código abierto muy popular para la informática estadística, análisis de datos y gráficos. Este curso introduce el lenguaje de programación R a los estudiantes. Cubre los fundamentos del lenguaje, las bibliotecas y los conceptos avanzados. Análisis de datos y gráficos avanzados con datos del mundo real. Audiencia Desarrolladores / análisis de datos Duración 3 días Formato Conferencias y prácticas
tf101 Aprendizaje Profundo con TensorFlow 21 horas TensorFlow es una API de segunda generación de la biblioteca de software de código abierto de Google para Deep Learning. El sistema está diseñado para facilitar la investigación en aprendizaje de máquina, y para hacer rápida y fácil la transición del prototipo de investigación al sistema de producción. Audiencia Este curso está dirigido a ingenieros que buscan usar TensorFlow para sus proyectos de Aprendizaje Profundo Después de completar este curso, los delegados: entender la estructura y los mecanismos de despliegue de TensorFlow ser capaz de llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración ser capaz de evaluar la calidad del código, realizar depuración, ser capaz de implementar producción avanzada como los modelos de entrenamiento, la construcción de gráficos y registro
Neuralnettf Fundamentos de Redes Neuronales Usando TensorFlow como Ejemplo 28 horas Este curso le proporcionará conocimientos en redes neuronales y, en general, en algoritmos de aprendizaje automático, aprendizaje profundo (algoritmos y aplicaciones). Este entrenamiento se enfoca más en los fundamentos, pero lo ayudará a elegir la tecnología adecuada: TensorFlow, Caffe, Teano, DeepDrive, Keras, etc. Los ejemplos están hechos en TensorFlow.
neo4j Más allá de la Base de Datos Relacional: neo4j 21 horas Las bases de datos relacionales basadas en tablas, como Oracle y MySQL, han sido durante mucho tiempo el estándar para organizar y almacenar datos. Sin embargo, el tamaño creciente y la fluidez de los datos han dificultado que estos sistemas tradicionales ejecuten eficientemente consultas muy complejas sobre los datos. Imagínese reemplazar el almacenamiento de datos basado en filas y columnas con el almacenamiento de datos basado en objetos, por medio del cual las entidades (por ejemplo, una persona) podrían ser almacenadas como nodos de datos y luego ser consultadas fácilmente sobre la base de su vasta relación multi lineal con otros nodos . E imaginar la consulta de estas conexiones y sus objetos asociados y propiedades utilizando una sintaxis compacta, hasta 20 veces más ligero que el SQL? Esto es lo que ofrecen las bases de datos gráficas, como neo4j. En este curso práctico, estableceremos un proyecto en vivo y pondremos en práctica las habilidades para modelar, gestionar y acceder a sus datos. Comparamos y comparamos bases de datos gráficas con bases de datos basadas en SQL, así como otras bases de datos NoSQL y aclaramos cuándo y dónde tiene sentido implementar cada una dentro de su infraestructura. Audiencia Administradores de bases de datos (DBA) Analistas de datos Desarrolladores Administradores del sistema Ingenieros de DevOps Analistas de Negocios Directores de tecnología Directores de informática Formato del curso Fuerte énfasis en práctica práctica. La mayoría de los conceptos se aprenden a través de muestras, ejercicios y desarrollo práctico.
BigData_ Una introducción práctica al análisis de datos y Big Data 35 horas Los participantes que completen esta capacitación obtendrán una comprensión práctica y real de Big Data y sus tecnologías, metodologías y herramientas relacionadas. Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase. El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad. Audiencia Desarrolladores / programadores Consultores de TI Formato del curso Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
kylin Apache Kylin: Del clásico OLAP al almacén de datos en tiempo real 14 horas Apache Kylin es un motor de análisis extremo y distribuido para Big Data. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real. Al final de esta capacitación, los participantes podrán: Consume datos de transmisión en tiempo real usando Kylin Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano Nota Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0) Audiencia Grandes ingenieros de datos Analistas de Big Data Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
ApacheIgnite Apache Ignite: Improve speed, scale and availability with in-memory computing 14 horas Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale and availability. In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project. By the end of this training, participants will be able to: Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database Achieve persistence without syncing data back to a relational database Use Ignite to carry out SQL and distributed joins Improve performance by moving data closer to the CPU, using RAM as a storage Spread data sets across a cluster to achieve horizontal scalability Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
encogadv Encog: Advanced Machine Learning 14 horas Encog is an open-source machine learning framework for Java and .Net. In this instructor-led, live training, participants will learn advanced machine learning techniques for building accurate neural network predictive models. By the end of this training, participants will be able to: Implement different neural networks optimization techniques to resolve underfitting and overfitting Understand and choose from a number of neural network architectures Implement supervised feed forward and feedback networks Audience Developers Analysts Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
mlbankingpython_ Machine Learning for Banking (with Python) 21 horas In this instructor-led, live training, participants will learn how to apply machine learning techniques and tools for solving real-world problems in the banking industry. Python will be used as the programming language. Participants first learn the key principles, then put their knowledge into practice by building their own machine learning models and using them to complete a number of team projects. Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
DSMSP Data Science essential for para los profesionales de marketing / ventas 24 horas Este curso está dirigido a profesionales de ventas de marketing que tienen la intención de obtener más profundo en la aplicación de la ciencia de datos en Marketing / Ventas. El curso proporciona cobertura detallada de las diferentes técnicas de ciencia de datos utilizadas para "upsale", "cross-sale", segmentación del mercado, marca y CLV. Diferencia de marketing y ventas: ¿cómo es que las ventas y el marketing son diferentes? En muy simple En palabras, las ventas pueden denominarse como un proceso que se enfoca o se dirige a individuos o grupos pequeños. Por otro lado, el marketing se dirige a un grupo más grande o al público en general. El marketing incluye investigación (identificación de las necesidades del cliente), desarrollo de productos (producción productos innovadores) y promover el producto (a través de anuncios) y crear conciencia sobre el producto entre los consumidores. Como tal marketing significa generar clientes potenciales o prospectos. Una vez el producto está en el mercado, es la tarea del vendedor persuadir al cliente para que compre el producto. Bueno, las ventas significan convertir clientes potenciales o prospectos en compras y pedidos. Si bien el marketing está dirigido a plazos más largos, las ventas se refieren a objetivos más cortos. El marketing implica una mayor proceso de crear un nombre para una marca y persuadir al cliente para que lo compre aunque no lo necesite. Donde las ventas solo implican un proceso a corto plazo para encontrar al consumidor objetivo. En concepto también, las ventas y el marketing tienen mucha diferencia. Las ventas solo se enfocan en convertir al consumidor la demanda coincide con los productos. Pero los objetivos de marketing para satisfacer las demandas del consumidor. El marketing se puede llamar como un pie de página para las ventas. Prepara el terreno para que un vendedor se acerque a un consumidor. El marketing como tal no es directo y utiliza varios métodos como publicidad, marketing de marca, relaciones públicas, correos directos y marketing viral para crear conciencia sobre el producto. Las ventas dependen a menudo interacciones interpersonales. Las ventas involucran reuniones uno a uno, redes y llamadas. Otra diferencia que se ve entre el marketing y las ventas es que la primera implica tanto micro y análisis macro centrado en intenciones estratégicas. Por otro lado, las ventas se refieren a los desafíos y relaciones con el cliente.
smtwebint Descripción de la Web Semántica 7 horas La Web Semántica es un movimiento de colaboración dirigido por el World Wide Web Consortium (W3C) que promueve formatos comunes para los datos en la World Wide Web. La Web Semántica proporciona un marco común que permite que los datos sean compartidos y reutilizados a través de límites de aplicaciones, empresas y comunidades.
mlintro Introducción al Aprendizaje Automático 7 horas Este curso de capacitación es para personas que deseen aplicar técnicas básicas de Aprendizaje de Máquinas en aplicaciones prácticas. Científicos de datos y estadísticos que tienen cierta familiaridad con el aprendizaje de máquinas y saben cómo programar R. El énfasis de este curso está en los aspectos prácticos de la preparación de datos / modelos, la ejecución, el análisis post hoc y la visualización. El propósito es dar una introducción práctica al aprendizaje automático a los participantes interesados en aplicar los métodos en el trabajo Se utilizan ejemplos específicos del sector para hacer que la formación sea relevante para el público.
hadoopadm Administración de Hadoop 21 horas El curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en entornos de sistemas distribuidos Objetivo del curso: Obtención de conocimientos sobre la administración de clúster de Hadoop
hadoopadm1 Hadoop para Administradores 21 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos. "... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado " - Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising Audiencia Administradores de Hadoop Formato Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
predio Aprendizaje Automático con PredictionIO 21 horas PredictionIO es un servidor de Aprendizaje de Máquina de código abierto construido sobre la pila de código abierto de última generación. Audiencia Este curso está dirigido a desarrolladores y científicos de datos que quieren crear motores predictivos para cualquier tarea de aprendizaje automático.
cassadmin Administración de Cassandra 14 horas Este curso presentará Cassandra, una popular base de datos NoSQL. Cubrirá los principios, la arquitectura y el modelo de datos de Cassandra. Los estudiantes aprenderán a modelar datos en CQL (Lenguaje de consulta de Cassandra) en prácticas, laboratorios interactivos. Esta sesión también trata sobre las internas de Cassandra y algunos temas de administración.
datamodeling Reconocimiento de Patrones 35 horas Este curso proporciona una introducción en el campo del reconocimiento de patrones y el aprendizaje automático. Se trata de aplicaciones prácticas en estadística, informática, procesamiento de señales, visión por computadora, minería de datos y bioinformática. El curso es interactivo e incluye muchos ejercicios prácticos, comentarios de los instructores y pruebas de los conocimientos y habilidades adquiridos. Audiencia      Analistas de datos      Estudiantes de doctorado, investigadores y profesionales
octnp Octave no solo para programadores 21 horas El curso está dedicado a aquellos que deseen conocer un programa alternativo al paquete comercial de MATLAB. La capacitación de tres días proporciona información completa sobre cómo moverse por el entorno y cómo realizar el paquete OCTAVE para el análisis de datos y cálculos de ingeniería. Los destinatarios de la capacitación son principiantes, pero también aquellos que conocen el programa y desean sistematizar su conocimiento y mejorar sus habilidades. No se requiere conocimiento de otros lenguajes de programación, pero facilitará en gran medida la adquisición de conocimiento por parte de los estudiantes. El curso le mostrará cómo usar el programa en muchos ejemplos prácticos.
matlabfundamentalsfinance Fundamentos de MATLAB - Personalizado 35 horas Este curso proporciona una introducción completa al entorno informático técnico de MATLAB + una introducción al uso de MATLAB para aplicaciones financieras. El curso está dirigido a usuarios principiantes y aquellos que buscan una revisión. No se asume experiencia previa en programación o conocimiento de MATLAB. Los temas de análisis de datos, visualización, modelado y programación se exploran a lo largo del curso. Los temas incluyen: Trabajando con la interfaz de usuario de MATLAB Ingresando comandos y creando variables Analizando vectores y matrices Visualización de datos vectoriales y matriciales Trabajando con archivos de datos Trabajando con tipos de datos Automatización de comandos con scripts Escritura de programas con lógica y control de flujo Funciones de escritura Uso de Financial Toolbox para el análisis cuantitativo
snorkel Snorkel: Rapidly process training data 7 horas Snorkel is a system for rapidly creating, modeling, and managing training data. It focuses on accelerating the development of structured or "dark" data extraction applications for domains in which large labeled training sets are not available or easy to obtain. In this instructor-led, live training, participants will learn techniques for extracting value from unstructured data such as text, tables, figures, and images through modeling of training data with Snorkel. By the end of this training, participants will be able to: Programmatically create training sets to enable the labeling of massive training sets Train high-quality end models by first modeling noisy training sets Use Snorkel to implement weak supervision techniques and apply data programming to weakly-supervised machine learning systems Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
encogintro Encog: Introduction to Machine Learning 14 horas Encog is an open-source machine learning framework for Java and .Net. In this instructor-led, live training, participants will learn how to create various neural network components using ENCOG. Real-world case studies will be discussed and machine language based solutions to these problems will be explored. By the end of this training, participants will be able to: Prepare data for neural networks using the normalization process Implement feed forward networks and propagation training methodologies Implement classification and regression tasks Model and train neural networks using Encog's GUI based workbench Integrate neural network support into real-world applications Audience Developers Analysts Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
opennlp OpenNLP for Text Based Machine Learning 14 horas The Apache OpenNLP library is a machine learning based toolkit for processing natural language text. It supports the most common NLP tasks, such as language detection, tokenization, sentence segmentation, part-of-speech tagging, named entity extraction, chunking, parsing and coreference resolution. In this instructor-led, live training, participants will learn how to create models for processing text based data using OpenNLP. Sample training data as well customized data sets will be used as the basis for the lab exercises. By the end of this training, participants will be able to: Install and configure OpenNLP Download existing models as well as create their own Train the models on various sets of sample data Integrate OpenNLP with existing Java applications Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
odm IBM ODM Decision Management 21 horas IBM ODM (a.k.a. WebSphere Operational Decision Manager) is a Business Rule Management System (BRMS). It consists of a central repository and automation engine that allow for the creation, management, testing and governance of business rules and events. Rules and events are stored in the central repository where they can be accessed and modified by individuals and software without the need to rebuild any software. In this instructor-led, live training, participants will learn how to create, manage and execute business rules as well as how to deploy and manage an instance of IBM ODM Decision Management in a live environment. By the end of this training, participants will be able to: Manage ODM components, including IBM Decision Center and IBM Decision Server Manage and execute business rules and events Reduce the testing cycle by enabling other software applications to detect and pick up changes to rules Combine decision making and change detection tools to facilitate adaptation, auditing, tracing and testing Separate business rules from business applications for greater flexibility Build easy-to-maintain business rule client applications Use Event Designer to build business event projects Deploy and test business event applications Build a customized dashboard for monitoring business events Enable collaboration among architects, developers and administrators for developing and maintaining decision services Enable business analysts, policy managers and rule authors develop and maintain an application's decision logic Audience Developers Project managers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
noolsint Introducción a Nools 7 horas Este curso de introdução ao Nool é um conjunto de metodos diferentes que formam uma situação unica de aprendizage onde os participantes serão munidos de todas as ferramentas sumamente necessárias para ter um entendimento introdutório à plataforma Nools.
manbrphp Administración de Reglas Empresariales con PHP Business Rules 14 horas Este curso explica cómo escribir reglas declarativas usando PHP Business Rules (http://sourceforge.net/projects/phprules/). Muestra cómo escribir, organizar e integrar reglas con el código existente. La mayor parte del curso se basa en ejercicios precedidos de una breve introducción y ejemplos.
annmldt Redes Neuronales Artificiales, Aprendizaje Automático y Pensamiento Profundo 21 horas
solrdev Solr para Desarrolladores 21 horas Este curso introduce a los estudiantes a la plataforma Solr. A través de una combinación de conferencias, discusiones y laboratorios, los estudiantes tendrán experiencia en la configuración de una búsqueda e indexación eficaces. La clase comienza con la instalación y configuración básica de Solr y enseña a los asistentes las funciones de búsqueda de Solr. Los estudiantes obtendrán experiencia con facetas, indexación y relevancia de búsqueda entre otras características centrales de la plataforma Solr. El curso se completa con una serie de temas avanzados, incluyendo corrección ortográfica, sugerencias, Multicore y SolrCloud.
cntk Utilizando la Red Informática ToolKit (CNTK) 28 horas Computer Network Toolkit (CNTK) es el sistema de aprendizaje de la máquina de entrenamiento de RNN de Open Source, Multi-máquina, Multi-GPU, altamente eficiente de habla, texto e imágenes. Audiencia Este curso está dirigido a ingenieros y arquitectos con el objetivo de utilizar CNTK en sus proyectos.
bpmndmncmmn BPMN, DMN, y CMNN - OMG Estándares para la Mejora de Procesos 28 horas Nomenclatura y modelo de proceso empresarial (BPMN), modelo de decisión y notación (DMN) y modelo y notación de gestión de casos (CMMN) son tres estándares de Object Management Group (OMG) para procesos, decisiones y modelos de casos. Este curso proporciona una introducción a todos ellos e informa cuándo debemos usarlos.
processmining Minería de Procesos 21 horas Process mining o Automated Business Process Discovery (ABPD) es una técnica que aplica algoritmos a los registros de eventos con el fin de analizar procesos comerciales. La minería de procesos va más allá del almacenamiento de datos y el análisis de datos; enlaza los datos con los procesos y proporciona información sobre las tendencias y patrones que afectan la eficiencia del proceso. Formato del curso      El curso comienza con una descripción general de las técnicas más comúnmente utilizadas para la minería de procesos. Discutimos los diversos algoritmos y herramientas de descubrimiento de procesos utilizados para descubrir y modelar procesos basados en datos de eventos brutos. Se examinan los casos de estudio de la vida real y se analizan los conjuntos de datos utilizando el marco de código abierto ProM. Audiencia      Profesionales de ciencias de datos      Cualquier persona interesada en comprender y aplicar el modelado de procesos y la minería de datos
mlentre Conceptos de aprendizaje automático para emprendedores y gerentes 21 horas This training course is for people that would like to apply Machine Learning in practical applications for their team.  The training will not dive into technicalities and revolve around basic concepts and business/operational applications of the same. Target Audience Investors and AI entrepreneurs Managers and Engineers whose company is venturing into AI space Business Analysts & Investors
matlabdsandreporting Fundamentos de MATLAB, Ciencia de datos y generación de informes 126 horas En la primera parte de esta capacitación, cubrimos los fundamentos de MATLAB y su función como lenguaje y plataforma. Se incluye en esta discusión una introducción a la sintaxis, arreglos y matrices de MATLAB, visualización de datos, desarrollo de guiones y principios orientados a objetos. En la segunda parte, demostramos cómo usar MATLAB para minería de datos, aprendizaje automático y análisis predictivo. Para proporcionar a los participantes una perspectiva clara y práctica del enfoque y el poder de MATLAB, hacemos comparaciones entre el uso de MATLAB y el uso de otras herramientas como hojas de cálculo, C, C ++ y Visual Basic. En la tercera parte de la capacitación, los participantes aprenden a optimizar su trabajo al automatizar el procesamiento de datos y la generación de informes. A lo largo del curso, los participantes pondrán en práctica las ideas aprendidas a través de ejercicios prácticos en un entorno de laboratorio. Al final de la capacitación, los participantes tendrán un conocimiento completo de las capacidades de MATLAB y podrán emplearlo para resolver problemas de ciencia de datos del mundo real, así como para optimizar su trabajo a través de la automatización. Las evaluaciones se llevarán a cabo durante todo el curso para medir el progreso. Formato del curso El curso incluye ejercicios teóricos y prácticos, incluidas discusiones de casos, inspección de código de muestra e implementación práctica. Nota Las sesiones de práctica se basarán en plantillas de informes de datos de muestra previamente organizadas. Si tiene requisitos específicos, contáctenos para hacer arreglos.
jupyter Jupyter for Data Science Teams 7 horas Jupyter is an open-source, web-based interactive IDE and computing environment. This instructor-led, live training introduces the idea of collaborative development in data science and demonstrates how to use Jupyter to track and participate as a team in the "life cycle of a computational idea".  It walks participants through the creation of a sample data science project based on top of the Jupyter ecosystem. By the end of this training, participants will be able to: Install and configure Jupyter, including the creation and integration of a team repository on Git Use Jupyter features such as extensions, interactive widgets, multiuser mode and more to enable project collaboraton Create, share and organize Jupyter Notebooks with team members Choose from Scala, Python, R, to write and execute code against big data systems such as Apache Spark, all through the Jupyter interface Audience Data science teams Format of the course Part lecture, part discussion, exercises and heavy hands-on practice   Note The Jupypter Notebook supports over 40 languages including R, Python, Scala, Julia, etc. To customize this course to your language(s) of choice, please contact us to arrange.
pythontextml Python: Machine Learning with Text 21 horas In this instructor-led, live training, participants will learn how to use the right machine learning and NLP (Natural Language Processing) techniques to extract value from text-based data. By the end of this training, participants will be able to: Solve text-based data science problems with high-quality, reusable code Apply different aspects of scikit-learn (classification, clustering, regression, dimensionality reduction) to solve problems Build effective machine learning models using text-based data Create a dataset and extract features from unstructured text Visualize data with Matplotlib Build and evaluate models to gain insight Troubleshoot text encoding errors Audience Developers Data Scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
undnn Understanding Deep Neural Networks 35 horas This course begins with giving you conceptual knowledge in neural networks and generally in machine learning algorithm, deep learning (algorithms and applications). Part-1(40%) of this training is more focus on fundamentals, but will help you choosing the right technology : TensorFlow, Caffe, Theano, DeepDrive, Keras, etc. Part-2(20%) of this training introduces Theano - a python library that makes writing deep learning models easy. Part-3(40%) of the training would be extensively based on Tensorflow - 2nd Generation API of Google's open source software library for Deep Learning. The examples and handson would all be made in TensorFlow. Audience This course is intended for engineers seeking to use TensorFlow for their Deep Learning projects After completing this course, delegates will: have a good understanding on deep neural networks(DNN), CNN and RNN understand TensorFlow’s structure and deployment mechanisms be able to carry out installation / production environment / architecture tasks and configuration be able to assess code quality, perform debugging, monitoring be able to implement advanced production like training models, building graphs and logging   Not all the topics would be covered in a public classroom with 35 hours duration due to the vastness of the subject. The Duration of the complete course will be around 70 hours and not 35 hours.
rasberrypiopencv Raspberry Pi + OpenCV: Build a facial recognition system 21 horas This instructor-led, live training introduces the software, hardware, and step-by-step process needed to build a facial recognition system from scratch. The hardware used in this lab includes Rasberry Pi, a camera module, servos (optional), etc. Participants are responsible for purchasing these components themselves. The software used includes OpenCV, Linux, Python, etc. By the end of this training, participants will be able to: Install Linux, OpenCV and other software utilities and libraries on a Rasberry Pi. Configure OpenCV to capture and detect facial images. Understand the various options for packaging a Rasberry Pi system for use in real-world environments. Adapt the system for a variety of use cases, including surveillance, identity verification, etc. Audience Developers Hardware/software technicians Technical persons in all industries Hobbyists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Note Other hardware and software options include: Arduino, OpenFace, Windows, etc. If you wish to use any of these, please contact us to arrange.
drools6int Introducción a Drools 6 para Desarrolladores 21 horas Este curso de 3 días tiene como objetivo presentar Drools 6 a los desarrolladores. Este curso no cubre la integración de drools, el rendimiento o cualquier otro tema complejo.
bigdatar Programación con Big Data en R 21 horas
dsguihtml5jsre Diseño de Interfaces de Usuario Inteligente con HTML5, JavaScript y Rule Engines 21 horas Interfaces de codificación que permiten a los usuarios obtener lo que quieren fácilmente es difícil. Este curso le guía a crear una interfaz de usuario eficaz con las más recientes tecnologías y bibliotecas. Introduce la idea de la lógica de la codificación en los motores de la regla (sobre todo Nools y las reglas de PHP) para hacerle más fácil modificar y probar. Después de que los cursos muestra una forma de integrar la lógica en la parte delantera de la página web utilizando JavaScript. La lógica codificada de esta manera puede ser reutilizada en el backend.
sparkdev Spark para Desarrolladores 21 horas This course will introduce Apache Spark. The students will learn how  Spark fits  into the Big Data ecosystem, and how to use Spark for data analysis.  The course covers Spark shell for interactive data analysis, Spark internals, Spark APIs, Spark SQL, Spark streaming, and machine learning and graphX. AUDIENCIA: Desarrolladores / analistas de datos
systemml Apache SystemML para Aprendizaje Automático 14 horas Apache SystemML es una plataforma de aprendizaje distribuida y declarativa. SystemML proporciona un aprendizaje declarativo a máquina a gran escala (ML) que tiene como objetivo la especificación flexible de algoritmos de ML y la generación automática de planes de tiempo de ejecución híbridos que van desde un nodo único, cálculos en memoria hasta cálculos distribuidos en Apache Hadoop y Apache Spark. Audiencia Este curso es adecuado para los investigadores, desarrolladores e ingenieros de Learning Machine que buscan utilizar SystemML como un marco para el aprendizaje automático.
mldt Aprendizaje Automático y Aprendizaje Profundo 21 horas Este curso cubre IA (enfatizando Aprendizaje automático y Aprendizaje profundo)  
patternmatching Búsqueda de Patrones 14 horas La coincidencia de patrones es una técnica utilizada para localizar patrones específicos dentro de una imagen. Se puede usar para determinar la existencia de características específicas dentro de una imagen capturada, por ejemplo, la etiqueta esperada en un producto defectuoso en una línea de fábrica o las dimensiones especificadas de un componente. Es diferente de "Reconocimiento de patrones" (que reconoce patrones generales basados en colecciones más grandes de muestras relacionadas) en el sentido de que dicta específicamente lo que estamos buscando, y luego nos dice si el patrón esperado existe o no. Audiencia      Ingenieros y desarrolladores que buscan desarrollar aplicaciones de visión artificial      Ingenieros de fabricación, técnicos y gerentes Formato del curso      Este curso presenta los enfoques, las tecnologías y los algoritmos utilizados en el campo de la coincidencia de patrones tal como se aplica a la Visión artificial.
opennmt OpenNMT: Implementing a Neural Machine Translation solution 7 horas OpenNMT es un sistema de traducción de máquina neural completo, de código abierto (MIT) que utiliza el juego de herramientas matemático de la Antorcha. En esta capacitación, los participantes aprenderán cómo configurar y utilizar OpenNMT para llevar a cabo la traducción de varios conjuntos de datos de muestra. El curso comienza con una visión general de las redes neuronales que se aplican a la traducción automática. Los participantes realizarán ejercicios en vivo para demostrar su comprensión de los conceptos aprendidos y obtener retroalimentación del instructor. Al final de este entrenamiento, los participantes tendrán los conocimientos y la práctica necesarios para implementar una solución OpenNMT en vivo. Las muestras de idioma fuente y de destino pueden pre-arreglarse según los requisitos del cliente. Audiencia Ingenieros de traducción y localización Formato del curso Parte conferencia, discusión de parte, práctica práctica pesada
tpuprogramming TPU Programming: Building Neural Network Applications on Tensor Processing Units 7 horas The Tensor Processing Unit (TPU) is the architecture which Google has used internally for several years, and is just now becoming available for use by the general public. It includes several optimizations specifically for use in neural networks, including streamlined matrix multiplication, and 8-bit integers instead of 16-bit in order to return appropriate levels of precision. In this instructor-led, live training, participants will learn how to take advantage of the innovations in TPU processors to maximize the performance of their own AI applications. By the end of the training, participants will be able to: Train various types of neural networks on large amounts of data Use TPUs to speed up the inference process by up to two orders of magnitude Utilize TPUs to process intensive applications such as image search, cloud vision and photos Audience Developers Researchers Engineers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
datameer Datameer for Data Analysts 14 horas Datameer is a business intelligence and analytics platform built on Hadoop. It allows end-users to access, explore and correlate large-scale, structured, semi-structured and unstructured data in an easy-to-use fashion. In this instructor-led, live training, participants will learn how to use Datameer to overcome Hadoop's steep learning curve as they step through the setup and analysis of a series of big data sources. By the end of this training, participants will be able to: Create, curate, and interactively explore an enterprise data lake Access business intelligence data warehouses, transactional databases and other analytic stores Use a spreadsheet user-interface to design end-to-end data processing pipelines Access pre-built functions to explore complex data relationships Use drag-and-drop wizards to visualize data and create dashboards Use tables, charts, graphs, and maps to analyze query results Audience Data analysts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
datavisualizationreports Data Visualization: Creating Captivating Reports 21 horas In this instructor-led, live training, participants will learn the skills, strategies, tools and approaches for visualizing and reporting data for different audiences. Case studies are also analyzed and discussed to exemplify how data visualization solutions are being applied in the real world to derive meaning out of data and answer crucial questions. By the end of this training, participants will be able to: Write reports with captivating titles, subtitles, and annotations using the most suitable highlighting, alignment, and color schemes for readability and user friendliness. Design charts that fit the audience's information needs and interests Choose the best chart types for a given dataset (beyond pie charts and bar charts) Identify and analyze the most valuable and relevant data quickly and efficiently Select the best file formats to include in reports (graphs, infographics, references, GIFs, etc.) Create effective layouts for displaying time series data, part-to-whole relationships, geographic patterns, and nested data Use effective color-coding to display qualitative and text-based data such as sentiment analysis, timelines, calendars, and diagrams Apply the most suitable tools for the job (Excel, R, Tableau, mapping programs, etc.) Prepare datasets for visualization Audience Data analysts Business managers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
d3js D3.js for Data Visualization 7 horas D3.js (or D3 for Data-Driven Documents) is a JavaScript library that uses SVG, HTML5, and CSS for producing dynamic, interactive data visualizations in web browsers. In this instructor-led, live training, participants will learn how to create web-based data-driven visualizations that run on multiple devices responsively. By the end of this training, participants will be able to: Use D3 to create interactive graphics, information dashboards, infographics and maps Control HTML with jQuery-like selections Transform the DOM by selecting elements and joining to data Export SVG for use in print publications Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
PaddlePaddle PaddlePaddle 21 horas PaddlePaddle (PArallel Distributed Deep LEarning) is a scalable deep learning platform developed by Baidu. In this instructor-led, live training, participants will learn how to use PaddlePaddle to enable deep learning in their product and service applications. By the end of this training, participants will be able to: Set up and configure PaddlePaddle Set up a Convolutional Neural Network (CNN) for image recognition and object detection Set up a Recurrent Neural Network (RNN) for sentiment analysis Set up deep learning on recommendation systems to help users find answers Predict click-through rates (CTR), classify large-scale image sets, perform optical character recognition(OCR), rank searches, detect computer viruses, and implement a recommendation system. Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
neuralnet Introducción al Uso de Neural Networks 7 horas El curso está dirigido para las personas que quieren aprender lo básico de neural networks y sus aplicaciones.
psr Introduction to Recommendation Systems 7 horas Audience Marketing department employees, IT strategists and other people involved in decisions related to the design and implementation of recommender systems. Format Short theoretical background follow by analysing working examples and short, simple exercises.
datashrinkgov Data Shrinkage para el Gobierno 14 horas
hbasedev HBase para Desarrolladores 21 horas Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase. Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
tfir TensorFlow para Reconocimiento de Imágenes 28 horas Este curso explora, con ejemplos específicos, la aplicación de Flujo Tensor a los propósitos de reconocimiento de imagen Audiencia Este curso está dirigido a ingenieros que buscan utilizar TensorFlow para los propósitos de reconocimiento de imágenes Después de completar este curso, los delegados podrán: entender la estructura y los mecanismos de despliegue de TensorFlow llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración evaluar la calidad del código, realizar depuración, monitoreo implementar la producción avanzada como modelos de formación, creación de gráficos y registro
datavisR1 Introducción a la Visualización de Datos con R 28 horas Este curso está dirigido a ingenieros de datos, tomadores de decisiones y analistas de datos y te llevará a crear parcelas muy eficaces utilizando R studio que atraen a los tomadores de decisiones y les ayudan a encontrar información oculta y tomar las decisiones correctas
kdd Descubrir Conocimiento en Bases de Datos 21 horas El descubrimiento de conocimiento en bases de datos (KDD) es el proceso de descubrir conocimiento útil de una colección de datos. Las aplicaciones de la vida real para esta técnica de minería de datos incluyen marketing, detección de fraude, telecomunicaciones y fabricación. En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos. Audiencia      Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas Formato del curso      Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
Fairsec Fairsec: Setting up a CNN-based machine translation system 7 horas Fairseq is an open-source sequence-to-sequence learning toolkit created by Facebok for use in Neural Machine Translation (NMT). In this training participants will learn how to use Fairseq to carry out translation of sample content. By the end of this training, participants will have the knowledge and practice needed to implement a live Fairseq based machine translation solution. Source and target language content samples can be prepared according to audience's requirements. Audience Localization specialists with a technical background Global content managers Localization engineers Software developers in charge of implementing global content solutions Format of the course     Part lecture, part discussion, heavy hands-on practice
TalendDI Talend Open Studio for Data Integration 28 horas Talend Open Studio for Data Integration is an open-source data integration product used to combine, convert and update data in various locations across a business. In this instructor-led, live training, participants will learn how to use the Talend ETL tool to carry out data transformation, data extraction, and connectivity with Hadoop, Hive, and Pig.   By the end of this training, participants will be able to Explain the concepts behind ETL (Extract, Transform, Load) and propagation Define ETL methods and ETL tools to connect with Hadoop Efficiently amass, retrieve, digest, consume, transform and shape big data in accordance to business requirements Audience Business intelligence professionals Project managers Database professionals SQL Developers ETL Developers Solution architects Data architects Data warehousing professionals System administrators and integrators Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
dsstne Amazon DSSTNE: Build a recommendation system 7 horas Amazon DSSTNE is an open-source library for training and deploying recommendation models. It allows models with weight matrices that are too large for a single GPU to be trained on a single host. In this instructor-led, live training, participants will learn how to use DSSTNE to build a recommendation application. By the end of this training, participants will be able to: Train a recommendation model with sparse datasets as input Scale training and prediction models over multiple GPUs Spread out computation and storage in a model-parallel fashion Generate Amazon-like personalized product recommendations Deploy a production-ready application that can scale at heavy workloads Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
nlg Python for Natural Language Generation 21 horas Natural language generation (NLG) refers to the production of natural language text or speech by a computer. In this instructor-led, live training, participants will learn how to use Python to produce high-quality natural language text by building their own NLG system from scratch. Case studies will also be examined and the relevant concepts will be applied to live lab projects for generating content. By the end of this training, participants will be able to: Use NLG to automatically generate content for various industries, from journalism, to real estate, to weather and sports reporting Select and organize source content, plan sentences, and prepare a system for automatic generation of original content Understand the NLG pipeline and apply the right techniques at each stage Understand the architecture of a Natural Language Generation (NLG) system Implement the most suitable algorithms and models for analysis and ordering Pull data from publicly available data sources as well as curated databases to use as material for generated text Replace manual and laborious writing processes with computer-generated, automated content creation Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
highcharts Highcharts for Data Visualization 7 horas Highcharts is an open-source JavaScript library for creating interactive graphical charts on the Web. It is commonly used to represent data in a more user-readable and interactive fashion. In this instructor-led, live training, participants will learn how to create high-quality data visualizations for web applications using Highcharts. By the end of this training, participants will be able to: Set up interactive charts on the Web using only HTML and JavaScript Represent large datasets in visually interesting and interactive ways Export charts to JPEG, PNG, SVG, or PDF Integrate Highcharts with jQuery Mobile for cross-platform compatibility Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
danagr Datos y análisis: desde cero 42 horas El análisis de datos es una herramienta crucial en los negocios de hoy. Nos enfocaremos en el desarrollo de habilidades para el práctico análisis de datos. El objetivo es ayudar a los delegados a dar respuestas basadas en evidencia a preguntas: ¿Lo que ha sucedido? procesamiento y análisis de datos produciendo visualizaciones informativas de datos ¿Lo que sucederá? pronosticando el rendimiento futuro evaluar pronósticos ¿Qué debería pasar? convirtiendo los datos en decisiones comerciales basadas en la evidencia optimizando procesos El curso en sí se puede impartir como un curso presencial de 6 días o de forma remota durante un período de semanas, si así lo prefiere. Podemos trabajar con usted para ofrecerle el curso que mejor se adapte a sus necesidades.
sspsspas Estadísticas con SPSS Software de Análisis Predictivo 14 horas Gol: Aprender a trabajar con SPSS a nivel de independencia Los destinatarios: Analistas, investigadores, científicos, estudiantes y todos aquellos que quieran adquirir la capacidad de utilizar el paquete SPSS y aprender técnicas de minería de datos populares.
68780 Apache Spark 14 horas
matlab2 Fundamentos de MATLAB 21 horas Este curso de tres días proporciona una integración exhaustiva para el MATLAB técnico de la técnica de comparación. El curso está diseñado para los usuarios finales y aquellos que buscan la revisión. En el prior de programación de la experiencia o el conocimiento de MATLAB es. Los temas de análisis de fecha, visualización, modelado y programación se exploran en todo el curso. Los temas incluyen: Working with the MATLAB interfaz de usuario Introducir comandos y crear variables Analice vectores y matrices Visualización vectorial y matriz data Trabajar con archivos de fecha Working with data types Automatización de comandos con secuencias de comandos Los programas de escritura con el control de flujo y de flujo Funciones de escritura
droolsdslba Drools 6 y DSL para Analistas de Negocios 21 horas Este curso de 3 días tiene como objetivo introducir Drools 6 a analistas de negocios responsables de escribir pruebas y reglas. Este curso se centra en la creación de la lógica pura. Los analistas después de este curso pueden escribir pruebas y lógica que luego pueden ser integrados por los desarrolladores con aplicaciones empresariales.
jenetics Jenetics 21 horas   Jenetics es un Algoritmo Genético avanzado, respectivamente una Algoritmo Evolutivo, biblioteca escrita en Java moderno. Audiencia Este curso está dirigido a investigadores que buscan utilizar Jenetics en sus proyectos
dl4jir DeepLearning4J para el Reconocimiento de Imágenes 21 horas Deeplearning4j es un software Open-Source Deep-Learning para Java y Scala en Hadoop y Spark. Audiencia Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar DeepLearning4J en sus proyectos de reconocimiento de imágenes.
scylladb Base de Datos Scylla 21 horas Scylla es una tienda de datos NoSQL distribuida de código abierto. Es compatible con Apache Cassandra pero tiene un rendimiento significativamente más alto y latencias más bajas. En este curso, los participantes aprenderán sobre las características y la arquitectura de Scylla mientras obtienen experiencia práctica con la configuración, administración, monitoreo y resolución de problemas de Scylla. Audiencia Administradores de bases Desarrolladores Ingenieros de sistema Formato del curso El curso es interactivo e incluye discusiones sobre los principios y enfoques para implementar y administrar bases de datos y clústeres distribuidos por Scylla. El curso incluye un componente pesado de ejercicios prácticos y práctica.
ApHadm1 Apache Hadoop: manipulación y transformación del rendimiento de los datos 21 horas Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
pythonmultipurpose Python Avanzado 28 horas En esta capacitación guiada por un instructor, los participantes aprenderán técnicas avanzadas de programación de Python, que incluyen cómo aplicar este versátil lenguaje para resolver problemas en áreas tales como aplicaciones distribuidas, finanzas, análisis y visualización de datos, programación de IU y scripting de mantenimiento. Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica Notas Si desea agregar, eliminar o personalizar cualquier sección o tema de este curso, contáctenos para organizarlo.
cognitivecomputing Cognitive Computing: An Introduction for Business Managers 7 horas Cognitive computing refers to systems that encompass machine learning, reasoning, natural language processing, speech recognition and vision (object recognition), human–computer interaction, dialog and narrative generation, to name a few. A cognitive computing system is often comprised of multiple technologies working together to process in-memory ‘hot’ contextual data as well as large sets of ‘cold’ historical data in batch. Examples of such technologies include Kafka, Spark, Elasticsearch, Cassandra and Hadoop. In this instructor-led, live training, participants will learn how Cognitive Computing compliments AI and Big Data and how purpose-built systems can be used to realize human-like behaviors that improve the performance of human-machine interactions in business. By the end of this training, participants will understand: The relationship between cognitive computing and artificial intelligence (AI) The inherently probabilistic nature of cognitive computing and how to use it as a business advantage How to manage cognitive computing systems that behave in unexpected ways Which companies and software systems offer the most compelling cognitive computing solutions Audience Business managers Format of the course Lecture, case discussions and exercises
odmblockchain IBM ODM and Blockchain: Applying business rules to Smart Contracts 14 horas Smart Contracts are used to encode and encapsulate the rules for automatically initiating and processing transactions on the Blockchain. In this instructor-led, live training, participants will learn how to use IBM Operational Decision Manager (ODM) with Hyperledger Composer to implement the business logic of a Smart Contract using business rules. By the end of this training, participants will be able to: Use ODM's rule engine together with Blockchain to "unbury" rules from the codebase of a Blockchain application Set up a system to allow specialist such as accountants, auditors, lawyers, and analysts to define the rules of exchange for themselves Use Decision Center as a platform to collaboratively govern rules Use ODM's rule engine to update, test and deploy rules without touching the code of the Smart Contract Deploy the IBM ODM Rule Execution Server Integrate IBM ODM with Hyperledger Composer running on Hyperledger Fabric Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
python_nlp Natural Language Processing with Deep Dive in Python and NLTK 35 horas By the end of the training the delegates are expected to be sufficiently equipped with the essential python concepts and should be able to sufficiently use NLTK to implement most of the NLP and ML based operations. The training is aimed at giving not just an executional knowledge but also the logical and operational knowledge of the technology therein.  
sparkpython Spark and Python for Big Data with PySpark 21 horas Spark is a data processing engine used in querying, analyzing, and transforming big data. Python is a high-level programming language famous for its clear syntax and code readibility. PySpark allows users to interface Spark with Python. In this instructor-led, live training, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to: Learn how to use Spark with Python to analyze Big Data Work on exercises that mimic real world circumstances Use different tools and techniques for big data analysis using PySpark Audience Developers IT Professionals Data Scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hadoopmapr Administración de Hadoop en MapR 28 horas Audiencia: Este curso pretende desmitificar la tecnología de datos / hadoop y demostrar que no es difícil de entender.
mlrobot1 Aprendizaje Automático para la Robótica 21 horas Este curso introduce métodos de aprendizaje automático en aplicaciones de robótica. Es un amplio panorama de los métodos existentes, motivaciones e ideas principales en el contexto del reconocimiento de patrones. Después de un breve trasfondo teórico, los participantes realizarán ejercicios sencillos usando código abierto (normalmente R) o cualquier otro software popular.
osqlide Oracle SQL Intermedio - Extracción de Datos 14 horas
dl4j Dominando Deeplearning4j 21 horas Deeplearning4j es la primera biblioteca de aprendizaje profundo, de código abierto y de código abierto, escrita para Java y Scala. Integrado con Hadoop y Spark, DL4J está diseñado para ser utilizado en entornos empresariales en GPUs y CPU distribuidas. Audiencia Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar Deeplearning4j en sus proyectos. Después de este curso, los delegados podrán:
w2vdl4j NLP con Deeplearning4j 14 horas Deeplearning4j es una biblioteca de código abierto y de aprendizaje profundo escrita para Java y Scala. Integrado con Hadoop y Spark, DL4J está diseñado para ser utilizado en entornos empresariales en GPUs y CPU distribuidas. Word2Vec es un método de computación de representaciones vectoriales de palabras introducidas por un equipo de investigadores de Google liderado por Tomas Mikolov. Audiencia Este curso está dirigido a investigadores, ingenieros y desarrolladores que buscan utilizar Deeplearning4J para construir modelos Word2Vec.
aitech Inteligencia Artificial - La Materia más Aplicada - Análisis de Datos + AI Distribuido + PNL 21 horas This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
teraintro Fundamentos de Teradata 21 horas Teradata es uno de los sistemas de gestión de bases de datos relacionales. Es principalmente adecuado para la construcción de aplicaciones de almacenamiento a datos a gran escala. Teradata logró esto por el concepto de paralelismo. Este curso introduce a los delegados a Teradata
MicrosoftCognitiveToolkit Microsoft Cognitive Toolkit 2.x 21 horas Microsoft Cognitive Toolkit 2.x (previously CNTK) is an open-source, commercial-grade toolkit that trains deep learning algorithms to learn like the human brain. According to Microsoft, CNTK can be 5-10x faster than TensorFlow on recurrent networks, and 2 to 3 times faster than TensorFlow for image-related tasks. In this instructor-led, live training, participants will learn how to use Microsoft Cognitive Toolkit to create, train and evaluate deep learning algorithms for use in commercial-grade AI applications involving multiple types of data such data, speech, text, and images. By the end of this training, participants will be able to: Access CNTK as a library from within a Python, C#, or C++ program Use CNTK as a standalone machine learning tool through its own model description language (BrainScript) Use the CNTK model evaluation functionality from a Java program Combine feed-forward DNNs, convolutional nets (CNNs), and recurrent networks (RNNs/LSTMs) Scale computation capacity on CPUs, GPUs and multiple machines Access massive datasets using existing programming languages and algorithms Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Note If you wish to customize any part of this training, including the programming language of choice, please contact us to arrange.
datavault Data Vault: Building a Scalable Data Warehouse 28 horas Data vault modeling is a database modeling technique that provides long-term historical storage of data that originates from multiple sources. A data vault stores a single version of the facts, or "all the data, all of the time". Its flexible, scalable, consistent and adaptable design encompasses the best aspects of 3rd normal form (3NF) and star schema. In this instructor-led, live training, participants will learn how to build a Data Vault. By the end of this training, participants will be able to: Understand the architecture and design concepts behind Data Vault 2.0, and its interaction with Big Data, NoSQL and AI. Use data vaulting techniques to enable auditing, tracing, and inspection of historical data in a data warehouse Develop a consistent and repeatable ETL (Extract, Transform, Load) process Build and deploy highly scalable and repeatable warehouses Audience Data modelers Data warehousing specialist Business Intelligence specialists Data engineers Database administrators Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
fsharpfordatascience F# for Data Science 21 horas Data science is the application of statistical analysis, machine learning, data visualization and programming for the purpose of understanding and interpreting real-world data. F# is a well suited programming language for data science as it combines efficient execution, REPL-scripting, powerful libraries and scalable data integration. In this instructor-led, live training, participants will learn how to use F# to solve a series of real-world data science problems. By the end of this training, participants will be able to: Use F#'s integrated data science packages Use F# to interoperate with other languages and platforms, including Excel, R, Matlab, and Python Use the Deedle package to solve time series problems Carry out advanced analysis with minimal lines of production-quality code Understand how functional programming is a natural fit for scientific and big data computations Access and visualize data with F# Apply F# for machine learning Explore solutions for problems in domains such as business intelligence and social gaming Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
graphcomputing Introduction to Graph Computing 28 horas A large number of real world problems can be described in terms of graphs. For example, the Web graph, the social network graph, the train network graph and the language graph. These graphs tend to be extremely large; processing them requires a specialized set of tools and mindset referred to as graph computing. In this instructor-led, live training, participants will learn about the various technology offerings and implementations for processing graph data. The aim is to identify real-world objects, their characteristics and relationships, then model these relationships and process them as data using graph computing approaches. We start with a broad overview and narrow in on specific tools as we step through a series of case studies, hands-on exercises and live deployments. By the end of this training, participants will be able to: Understand how graph data is persisted and traversed Select the best framework for a given task (from graph databases to batch processing frameworks) Implement Hadoop, Spark, GraphX and Pregel to carry out graph computing across many machines in parallel View real-world big data problems in terms of graphs, processes and traversals Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
mlfinancepython Machine Learning for Finance (with Python) 21 horas Machine learning is a branch of Artificial Intelligence wherein computers have the ability to learn without being explicitly programmed. In this instructor-led, live training, participants will learn how to apply machine learning techniques and tools for solving real-world problems in the finance industry. Python will be used as the programming language. Participants first learn the key principles, then put their knowledge into practice by building their own machine learning models and using them to complete a number of team projects. By the end of this training, participants will be able to: Understand the fundamental concepts in machine learning Learn the applications and uses of machine learning in finance Develop their own algorithmic trading strategy using machine learning with Python Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
nlp Procesamiento de Lenguajes Naturales 21 horas Este curso ha sido diseñado para personas interesadas en extraer significado del texto escrito en inglés, aunque el conocimiento se puede aplicar a otros lenguajes humanos. El curso cubrirá cómo hacer uso de textos escritos por humanos, como blogs, tweets, etc ... Por ejemplo, un analista puede configurar un algoritmo que llegará a una conclusión automática basada en una fuente de datos extensa.
MLFWR1 Fundamentos de Aprendizaje Automático con R 14 horas El objetivo de este curso es proporcionar una competencia básica en la aplicación de los métodos de aprendizaje automático en la práctica. A través del uso de la plataforma de programación R y sus diversas bibliotecas, y basado en una multitud de ejemplos prácticos, este curso enseña cómo usar los bloques de construcción más importantes de Aprendizaje de Máquinas, cómo tomar decisiones de modelado de datos, interpretar los resultados de los algoritmos y Validar los resultados. Nuestro objetivo es darle las habilidades para entender y usar las herramientas más fundamentales de la caja de herramientas de Aprendizaje de Máquinas con confianza y evitar las trampas comunes de las aplicaciones de Data Sciences.
deeplearning1 Introducción al Aprendizaje Profundo 21 horas Este curso es una visión general de Deep Learning sin profundizar en ningún método específico. Es adecuado para las personas que quieren empezar a usar el aprendizaje profundo para mejorar su precisión de la predicción.
osovv Descripción de OpenStack 7 horas El curso está dedicado a ingenieros y arquitectos de TI que buscan una solución para alojar una nube IaaS (Infraestructura como servicio) privada o pública. Esta es también una gran oportunidad para que los administradores de TI obtengan conocimiento sobre las posibilidades que podrían ser habilitadas por OpenStack. Antes de gastar mucho dinero en la implementación de OpenStack, podría considerar todos los pros y contras asistiendo a nuestro curso. Este tema también está disponible como consultoría individual. Objetivo del curso: Obtener conocimientos básicos sobre OpenStack
simplecv Visión artificial con SimpleCV 14 horas SimpleCV es un framework de código abierto, lo que significa que es una colección de bibliotecas y software que puede usar para desarrollar aplicaciones de visión. Le permite trabajar con las imágenes o secuencias de vídeo que provienen de cámaras web, Kinects, FireWire y cámaras IP, o teléfonos móviles. Le ayuda a crear software para que sus diversas tecnologías no solo vean el mundo, sino que lo entiendan también. Audiencia Este curso está dirigido a ingenieros y desarrolladores que busquen desarrollar aplicaciones de visión artificial con SimpleCV.
tsflw2v Procesamiento del Lenguaje Natural con TensorFlow 35 horas TensorFlow ™ es una biblioteca de software de código abierto para computación numérica utilizando gráficos de flujo de datos. SyntaxNet es una estructura de procesamiento de lenguaje natural de la red neuronal para TensorFlow. Word2Vec se utiliza para el aprendizaje de representaciones vectoriales de palabras, llamadas "embeddings palabra". Word2vec es un modelo predictivo particularmente computacionalmente eficiente para aprender las incorporaciones de palabras a partir de texto en bruto. Viene en dos sabores, el modelo continuo de la bolsa-de-palabras (CBOW) y el modelo de Skip-Gram (capítulo 3.1 y 3.2 en Mikolov y otros). Utilizado en tándem, SyntaxNet y Word2Vec permite a los usuarios generar modelos de incorporación aprendida de entrada de lenguaje natural. Audiencia Este curso está dirigido a desarrolladores e ingenieros que tienen la intención de trabajar con los modelos SyntaxNet y Word2Vec en sus gráficos TensorFlow. Después de completar este curso, los delegados: Entender la estructura y los mecanismos de despliegue de TensorFlow ser capaz de llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración ser capaz de evaluar la calidad del código, realizar depuración, ser capaz de implementar la producción avanzada como modelos de entrenamiento, términos de inclusión, gráficos de construcción y registro
marvin Marco de Procesamiento de Imagen de Marvin - Creando Aplicaciones de Procesamiento de Imágenes y Video con Marvin 14 horas Marvin es un marco de procesamiento de imágenes y videos extensible, multiplataforma y de código abierto desarrollado en Java. Los desarrolladores pueden usar Marvin para manipular imágenes, extraer características de imágenes para tareas de clasificación, generar figuras de forma algorítmica, procesar conjuntos de datos de archivos de video y configurar la automatización de pruebas unitarias. Algunas de las aplicaciones de video de Marvin incluyen filtrado, realidad aumentada, seguimiento de objetos y detección de movimiento. En este curso los participantes aprenderán los principios del análisis de imágenes y video y utilizarán el Marvin Framework y sus algoritmos de procesamiento de imágenes para construir su propia aplicación. Audiencia      Los desarrolladores de software que deseen utilizar un marco de código abierto basado en plug-ins para crear aplicaciones de procesamiento de imágenes y videos Formato del curso      Primero se presentan los principios básicos del análisis de imágenes, el análisis de video y el Marco Marvin. Los estudiantes reciben tareas basadas en proyectos que les permiten practicar los conceptos aprendidos. Al final de la clase, los participantes habrán desarrollado su propia aplicación utilizando el Marvin Framework y las bibliotecas.
DM7 Introducción a DM7 21 horas Audience Beginner or intermediate database developers Beginner or intermediate database administrators Programmers Format of the course Heavy emphasis on hands-on practice. Most of the concepts are learned through samples, exercises and hands-on development
PentahoDI Pentaho Data Integration Fundamentals 21 horas Pentaho Data Integration is an open-source data integration tool for defining jobs and data transformations. In this instructor-led, live training, participants will learn how to use Pentaho Data Integration's powerful ETL capabilities and rich GUI to manage an entire big data lifecycle, maximizing the value of data to the organization. By the end of this training, participants will be able to: Create, preview, and run basic data transformations containing steps and hops Configure and secure the Pentaho Enterprise Repository Harness disparate sources of data and generate a single, unified version of the truth in an analytics-ready format. Provide results to third-part applications for further processing Audience Data Analyst ETL developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
t2t T2T: Creating Sequence to Sequence models for generalized learning 7 horas Tensor2Tensor (T2T) is a modular, extensible library for training AI models in different tasks, using different types of training data, for example: image recognition, translation, parsing, image captioning, and speech recognition. It is maintained by the Google Brain team. In this instructor-led, live training, participants will learn how to prepare a deep-learning model to resolve multiple tasks. By the end of this training, participants will be able to: Install tensor2tensor, select a data set, and train and evaluate an AI model Customize a development environment using the tools and components included in Tensor2Tensor Create and use a single model to concurrently learn a number of tasks from multiple domains Use the model to learn from tasks with a large amount of training data and apply that knowledge to tasks where data is limited Obtain satisfactory processing results using a single GPU Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
mlios Machine Learning on iOS 14 horas In this instructor-led, live training, participants will learn how to use the iOS Machine Learning (ML) technology stack as they as they step through the creation and deployment of an iOS mobile app. By the end of this training, participants will be able to: Create a mobile app capable of image processing, text analysis and speech recognition Access pre-trained ML models for integration into iOS apps Create a custom ML model Add Siri Voice support to iOS apps Understand and use frameworks such as coreML, Vision, CoreGraphics, and GamePlayKit Use languages and tools such as Python, Keras, Caffee, Tensorflow, sci-kit learn, libsvm, Anaconda, and Spyder Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
pythonfinance Python Programming for Finance 35 horas Python is a programming language that has gained huge popularity in the financial industry. Used by the largest investment banks and hedge funds, it is being employed to build a wide range of financial applications ranging from core trading programs to risk management systems. In this instructor-led, live training, participants will learn how to use Python to develop practical applications for solving a number of specific finance related problems. By the end of this training, participants will be able to: Understand the fundamentals of the Python programming language Download, install and maintain the best development tools for creating financial applications in Python Select and utilize the most suitable Python packages and programming techniques to organize, visualize, and analyze financial data from various sources (CSV, Excel, databases, web, etc.) Build applications that solve problems related to asset allocation, risk analysis, investment performance and more Troubleshoot, integrate deploy and optimize a Python application Audience Developers Analysts Quants Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Note This training aims to provide solutions for some of the principle problems faced by finance professionals. However, if you have a particular topic, tool or technique that you wish to append or elaborate further on, please please contact us to arrange.
wfsadm Administración del Servidor WildFly 14 horas Este curso se crea para administradores, desarrolladores o cualquier persona interesada en administrar el servidor de aplicaciones WildFly (AKA JBoss Application Server). Este curso normalmente se ejecuta en la versión más reciente del Application Server, pero puede adaptarse (como un curso privado) a versiones anteriores a partir de la versión 5.1.
mlfunpython Fundamentos de Aprendizaje Automático con Python 14 horas El objetivo de este curso es proporcionar una competencia básica en la aplicación de los métodos de aprendizaje automático en la práctica. A través del uso del lenguaje de programación Python y sus diversas bibliotecas, y basado en una multitud de ejemplos prácticos, este curso enseña cómo usar los bloques de construcción más importantes de Aprendizaje de Máquinas, cómo tomar decisiones de modelado de datos, interpretar las salidas de los algoritmos y Validar los resultados. Nuestro objetivo es darle las habilidades para entender y usar las herramientas más fundamentales de la caja de herramientas de Aprendizaje de Máquinas con confianza y evitar las trampas comunes de las aplicaciones de Data Sciences.
dladv Aprendizaje Profundo (Deep Learning) Avanzado 28 horas Este curso visa proporcionar todas as ferramentas e explicitar todos os apectos necessários para que os participantes possam adquirir conhecimetos únicos e funcionais acerca do Deep learning avançado, com o objetivo de que possam aplicar-lo em seu uso cotidiano.
python_nltk Procesamiento de Lenguajes Naturales con Python 28 horas Este curso introduce a los lingüistas o programadores a la PNL en Python. Durante este curso utilizaremos principalmente nltk.org (Natural Language Tool Kit), pero también usaremos otras bibliotecas relevantes y útiles para PNL. Por el momento podemos realizar este curso en Python 2.x o Python 3.x. Los ejemplos son en inglés o mandarín (普通话). Otros idiomas también pueden ponerse a disposición si se acuerda antes de reservar.
spmllib Apache Spark MLlib 35 horas MLlib es la biblioteca de aprendizaje automático (ML) de Spark. Su objetivo es hacer que el aprendizaje práctico de la máquina sea escalable y fácil. Consiste en algoritmos comunes de aprendizaje y utilidades, incluyendo clasificación, regresión, agrupación, filtrado colaborativo, reducción de dimensionalidad, así como primitivas de optimización de nivel más bajo y API de oleoducto de nivel superior. Se divide en dos paquetes: spark.mllib contiene la API original construida sobre RDDs. spark.ml proporciona una API de nivel superior construida en la parte superior de DataFrames para la construcción de tuberías de ML.   Audiencia Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar una biblioteca de máquinas construida para Apache Spark
opencv Visión por Computadora con OpenCV 28 horas OpenCV (Open Source Computer Vision Library: http://opencv.org) es una biblioteca de licencia BSD de código abierto que incluye varios centenares de algoritmos de visión por ordenador.
Torch Torch: Introducción a Máquina y Aprendizaje Profundo 21 horas Torch es una biblioteca de aprendizaje de máquina de código abierto y un marco informático científico basado en el lenguaje de programación Lua. Proporciona un entorno de desarrollo para numéricos, aprendizaje automático y visión por computadora, con un énfasis particular en aprendizaje profundo y redes convolucionales. Es uno de los marcos más rápidos y flexibles para Machine and Deep Learning y lo utilizan compañías como Facebook, Google, Twitter, NVIDIA, AMD, Intel y muchas otras. En este curso, cubrimos los principios de Torch, sus características únicas y cómo se puede aplicar en aplicaciones del mundo real. Pasamos por numerosos ejercicios prácticos en todas partes, demostrando y practicando los conceptos aprendidos. Al final del curso, los participantes comprenderán a fondo las características y capacidades subyacentes de Torch, así como su rol y contribución dentro del espacio de IA en comparación con otros marcos y bibliotecas. Los participantes también habrán recibido la práctica necesaria para implementar Torch en sus propios proyectos. Audiencia      Desarrolladores de software y programadores que deseen habilitar Machine and Deep Learning dentro de sus aplicaciones Formato del curso      Descripción general de Machine and Deep Learning      Ejercicios de integración y codificación en clase      Preguntas de prueba salpicadas en el camino para verificar la comprensión
cassdev1 Cassandra para Desarrolladores (Personalizado) 21 horas This course will introduce Cassandra –  a popular NoSQL database.  It will cover Cassandra principles, architecture and data model.   Students will learn data modeling  in CQL (Cassandra Query Language) in hands-on, interactive labs.  This session also discusses Cassandra internals and some admin topics. Duration : 3 days Audience : Developers
hdp Hortonworks Data Platform (HDP) for administrators 21 horas Hortonworks Data Platform is an open-source Apache Hadoop support platform that provides a stable foundation for developing big data solutions on the Apache Hadoop ecosystem. This instructor-led live training introduces Hortonworks and walks participants through the deployment of Spark + Hadoop solution. By the end of this training, participants will be able to: Use Hortonworks to reliably run Hadoop at a large scale Unify Hadoop's security, governance, and operations capabilities with Spark's agile analytic workflows. Use Hortonworks to investigate, validate, certify and support each of the components in a Spark project Process different types of data, including structured, unstructured, in-motion, and at-rest. Audience Hadoop administrators Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
deckgl deck.gl: Visualizing Large-scale Geospatial Data 14 horas deck.gl is an open-source, WebGL-powered library for exploring and visualizing data assets at scale. Created by Uber, it is especially useful for gaining insights from geospatial data sources, such as data on maps. This instructor-led, live training introduces the concepts and functionality behind deck.gl and walks participants through the set up of a demonstration project. By the end of this training, participants will be able to: Take data from very large collections and turn it into compelling visual representations Visualize data collected from transportation and journey-related use cases, such as pick-up and drop-off experiences, network traffic, etc. Apply layering techniques to geospatial data to depict changes in data over time Integrate deck.gl with React (for Reactive programming) and Mapbox GL (for visualizations on Mapbox based maps). Understand and explore other use cases for deck.gl, including visualizing points collected from a 3D indoor scan, visualizing machine learning models in order to optimize their algorithms, etc. Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
tensorflowserving TensorFlow Serving 7 horas TensorFlow Serving is a system for serving machine learning (ML) models to production. In this instructor-led, live training, participants will learn how to configure and use TensorFlow Serving to deploy and manage ML models in a production environment. By the end of this training, participants will be able to: Train, export and serve various TensorFlow models Test and deploy algorithms using a single architecture and set of APIs Extend TensorFlow Serving to serve other types of models beyond TensorFlow models Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
rforfinance R Programming for Finance 28 horas R is a popular programming language in the financial industry. It is used in financial applications ranging from core trading programs to risk management systems. In this instructor-led, live training, participants will learn how to use R to develop practical applications for solving a number of specific finance related problems. By the end of this training, participants will be able to: Understand the fundamentals of the R programming language Select and utilize R packages and techniques to organize, visualize, and analyze financial data from various sources (CSV, Excel, databases, web, etc.) Build applications that solve problems related to asset allocation, risk analysis, investment performance and more Troubleshoot, integrate deploy and optimize an R application Audience Developers Analysts Quants Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Note This training aims to provide solutions for some of the principle problems faced by finance professionals. However, if you have a particular topic, tool or technique that you wish to append or elaborate further on, please please contact us to arrange.
mdlmrah Model MapReduce y Apache Hadoop 14 horas El curso está destinado al especialista en TI que trabaja con el procesamiento distribuido de grandes conjuntos de datos a través de grupos de computadoras.
mdldromgdmn Modelado de Decisiones y Reglas con OMG DMN 14 horas Este curso enseña cómo diseñar y ejecutar decisiones en reglas con OMG DMN (Decision Model and Notation).
datama Minería y Análisis de Datos 28 horas Objetivo: Los delegados serán capaces de analizar grandes conjuntos de datos, extraer patrones, elegir la variable correcta que impacte los resultados para que un nuevo modelo se pronostique con resultados predictivos.
mlfsas Fundamentos de Aprendizaje Automático con Scala y Apache Spark 14 horas El objetivo de este curso es proporcionar una competencia básica en la aplicación de métodos de aprendizaje automático en la práctica. A través del uso del lenguaje de programación Scala y de sus diversas bibliotecas, y basado en una multitud de ejemplos prácticos, este curso enseña cómo usar los bloques de construcción más importantes de Aprendizaje de Máquinas, cómo tomar decisiones de modelado de datos, interpretar las salidas de los algoritmos y validar los resultados. Nuestro objetivo es darle las habilidades para entender y usar las herramientas más fundamentales de la caja de herramientas de Aprendizaje de Máquinas con confianza y evitar las trampas comunes de las aplicaciones de Data Sciences.
aiintrozero De Cero a AI 35 horas Este curso se crea para personas que no tienen experiencia previa en probabilidades y estadísticas.
intror Introducción a R con Análisis de Series Temporales 21 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has a wide variety of packages for data mining.
OpenNN OpenNN: Implementación de Redes Neuronales 14 horas OpenNN es una biblioteca de clases de código abierto escrita en C ++ que implementa redes neuronales para su uso en aprendizaje automático. En este curso repasaremos los principios de las redes neuronales y utilizaremos OpenNN para implementar una aplicación de muestra. Audiencia      Desarrolladores de software y programadores que deseen crear aplicaciones de Deep Learning. Formato del curso      Conferencia y discusión junto con ejercicios prácticos.
cpde Data Engineering on Google Cloud Platform 32 horas Esta clase de cuatro días dirigida por instructores proporciona a los participantes una introducción práctica para diseñar y construir sistemas de procesamiento de datos en Google Cloud Platform. A través de una combinación de presentaciones, demostraciones y laboratorios manuales, los participantes aprenderán cómo diseñar sistemas de procesamiento de datos, construir tuberías de datos de extremo a extremo, analizar datos y llevar a cabo el aprendizaje automático. El curso cubre datos estructurados, no estructurados y de transmisión. Este curso enseña a los participantes las siguientes habilidades: Diseño y creación de sistemas de procesamiento de datos en Google Cloud Platform Proceso lote y transmisión de datos mediante la implementación de tuberías de datos de escalado automático en Cloud Dataflow Obtenga información de negocios de conjuntos de datos extremadamente grandes utilizando Google BigQuery Capacitar, evaluar y predecir utilizando modelos de aprendizaje automático usando Tensorflow y Cloud ML Aproveche los datos no estructurados con las API de Spark y ML en Cloud Dataproc Habilitar información instantánea de la transmisión de datos Esta clase está destinada a desarrolladores experimentados que son responsables de administrar grandes transformaciones de datos incluyendo: Extracción, carga, transformación, limpieza y validación de datos Diseño de tuberías y arquitecturas para el procesamiento de datos Creación y mantenimiento de modelos de aprendizaje y modelos estadísticos Consulta de conjuntos de datos, visualización de resultados de consultas y creación de informes
magellan Magellan: Geospatial Analytics with on Spark 14 horas Magellan is an open-source distributed execution engine for geospatial analytics on big data. Implemented on top of Apache Spark, it extends Spark SQL and provides a relational abstraction for geospatial analytics. This instructor-led, live training introduces the concepts and approaches for implementing geospacial analytics and walks participants through the creation of a predictive analysis application using Magellan on Spark. By the end of this training, participants will be able to: Efficiently query, parse and join geospatial datasets at scale Implement geospatial data in business intelligence and predictive analytics applications Use spatial context to extend the capabilities of mobile devices, sensors, logs, and wearables Audience Application developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
embeddingprojector Embedding Projector: Visualizing your Training Data 14 horas Embedding Projector is an open-source web application for visualizing the data used to train machine learning systems. Created by Google, it is part of TensorFlow. This instructor-led, live training introduces the concepts behind Embedding Projector and walks participants through the setup of a demo project. By the end of this training, participants will be able to: Explore how data is being interpreted by machine learning models Navigate through 3D and 2D views of data to understand how a machine learning algorithm interprets it Understand the concepts behind Embeddings and their role in representing mathematical vectors for images, words and numerals. Explore the properties of a specific embedding to understand the behavior of a model Apply Embedding Project to real-world use cases such building a song recommendation system for music lovers Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
tidyverse Introduction to Data Visualization with Tidyverse and R 7 horas The Tidyverse is a collection of versatile R packages for cleaning, processing, modeling, and visualizing data. Some of the packages included are: ggplot2, dplyr, tidyr, readr, purrr, and tibble. In this instructor-led, live training, participants will learn how to manipulate and visualize data using the tools included in the Tidyverse. By the end of this training, participants will be able to: Perform data analysis and create appealing visualizations Draw useful conclusions from various datasets of sample data Filter, sort and summarize data to answer exploratory questions Turn processed data into informative line plots, bar plots, histograms Import and filter data from diverse data sources, including Excel, CSV, and SPSS files Audience Beginners to the R language Beginners to data analysis and data visualization Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
textsum Text Summarization with Python 14 horas In Python Machine Learning, the Text Summarization feature is able to read the input text and produce a text summary. This capability is available from the command-line or as a Python API/Library. One exciting application is the rapid creation of executive summaries; this is particularly useful for organizations that need to review large bodies of text data before generating reports and presentations. In this instructor-led, live training, participants will learn to use Python to create a simple application that auto-generates a summary of input text. By the end of this training, participants will be able to: Use a command-line tool that summarizes text. Design and create Text Summarization code using Python libraries. Evaluate three Python summarization libraries: sumy 0.7.0, pysummarization 1.0.4, readless 1.0.17 Audience Developers Data Scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
rneuralnet Red Neuronal en R 14 horas Este curso es una introducción a la aplicación de redes neuronales en problemas del mundo real utilizando el software R-project.
68736 Hadoop for Developers (2 days) 14 horas
rintrob Introducción R para Biólogos 28 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has also found followers among statisticians, engineers and scientists without computer programming skills who find it easy to use. Its popularity is due to the increasing use of data mining for various goals such as set ad prices, find new drugs more quickly or fine-tune financial models. R has a wide variety of packages for data mining.
altdomexp Pericia en el Dominio de Analytics 7 horas Este curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Analytics Domain Expertise).
singa Dominando Apache SINGA 21 horas SINGA es una plataforma de aprendizaje profundo distribuida para la formación de grandes modelos de aprendizaje profundo sobre grandes conjuntos de datos. Está diseñado con un modelo de programación intuitivo basado en la abstracción de capas. Se admite una variedad de modelos populares de aprendizaje profundo, a saber, los modelos de feed-forward que incluyen redes neuronales convolucionales (CNN), modelos energéticos como la máquina Boltzmann restringida (RBM) y redes neuronales recurrentes (RNN). Muchas capas integradas se proporcionan para los usuarios. La arquitectura de SINGA es lo suficientemente flexible como para ejecutar marcos de formación síncronos, asíncronos e híbridos. SINGA también soporta diferentes esquemas de particionamiento de red neural para paralelizar el entrenamiento de grandes modelos, a saber, partición en la dimensión de lote, dimensión de entidad o partición híbrida. Audiencia Este curso está dirigido a investigadores, ingenieros y desarrolladores que buscan utilizar Apache SINGA como un marco de aprendizaje profundo. Después de completar este curso, los delegados: entender la estructura y los mecanismos de implementación de SINGA ser capaz de llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración ser capaz de evaluar la calidad del código, realizar depuración, ser capaz de implementar la producción avanzada como modelos de entrenamiento, términos de inclusión, gráficos de construcción y registro
datapro Protección de Datos 35 horas Este es un curso dirigido por un instructor, y es la versión sin certificación del curso "CDP - Certificado en Protección de Datos" Aquellos con experiencia en temas de protección de datos, así como aquellos nuevos en el tema, necesitan ser entrenados para que sus organizaciones confíen en que el cumplimiento legal se aborda continuamente. Es necesario identificar las cuestiones que requieren asesoramiento experto en protección de datos a tiempo para mejorar la reputación y la credibilidad de la organización mediante políticas y procedimientos de protección de datos pertinentes. Objetivos: El objetivo del programa es promover una comprensión de cómo funcionan los principios de protección de datos en lugar de centrarse simplemente en la mecánica de la regulación. El programa sitúa la Ley en el contexto de los derechos humanos y promueve las buenas prácticas dentro de las organizaciones. Al finalizar, usted tendrá: Una apreciación del contexto más amplio de la Ley. Una comprensión de la forma en que la Ley y la privacidad y las comunicaciones electrónicas (Directiva de la CE) Una amplia comprensión de la manera en que la legislación asociada se relaciona con la Ley Una comprensión de lo que hay que hacer para lograr el cumplimiento Sinopsis del curso: El programa comprende tres partes principales, cada una de las subsecciones. Contexto - esto abordará los orígenes y razones de la Ley junto con la consideración de la privacidad en general. Ley - Ley de Protección de Datos - se tratará de los principales conceptos y elementos de la Ley y la legislación subordinada. Aplicación - esto considerará cómo se logra el cumplimiento y cómo funciona la Ley en la práctica.
drools7int Introduction to Drools 7 for Developers 21 horas This 3 days course is aimed to introduce Drools 7 to developers.This course doesn't cover drools integration, performance or any other complex topics.
hadoopforprojectmgrs Hadoop para jefes de proyecto 14 horas A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data. Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop. En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI. Audiencia Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
zeppelin Zeppelin for interactive data analytics 14 horas Apache Zeppelin is a web-based notebook for capturing, exploring, visualizing and sharing Hadoop and Spark based data. This instructor-led, live training introduces the concepts behind interactive data analytics and walks participants through the deployment and usage of Zeppelin in a single-user or multi-user environment. By the end of this training, participants will be able to: Install and configure Zeppelin Develop, organize, execute and share data in a browser-based interface Visualize results without referring to the command line or cluster details Execute and collaborate on long workflows Work with any of a number of plug-in language/data-processing-backends, such as Scala ( with Apache Spark ), Python ( with Apache Spark ), Spark SQL, JDBC, Markdown and Shell. Integrate Zeppelin with Spark, Flink and Map Reduce Secure multi-user instances of Zeppelin with Apache Shiro Audience Data engineers Data analysts Data scientists Software developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
openface OpenFace: Creating Facial Recognition Systems 14 horas OpenFace is Python and Torch based open-source, real-time facial recognition software based on Google’s FaceNet research. In this instructor-led, live training, participants will learn how to use OpenFace's components to create and deploy a sample facial recognition application. By the end of this training, participants will be able to: Work with OpenFace's components, including dlib, OpenVC, Torch, and nn4 to implement face detection, alignment, and transformation. Apply OpenFace to real-world applications such as surveillance, identity verification, virtual reality, gaming, and identifying repeat customers, etc. Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
nifi Apache NiFi for Administrators 21 horas Apache NiFi (Hortonworks DataFlow) is a real-time integrated data logistics and simple event processing platform that enables the moving, tracking and automation of data between systems. It is written using flow-based programming and provides a web-based user interface to manage dataflows in real time. In this instructor-led, live training, participants will learn how to deploy and manage Apache NiFi in a live lab environment. By the end of this training, participants will be able to: Install and configure Apachi NiFi Source, transform and manage data from disparate, distributed data sources, including databases and big data lakes Automate dataflows Enable streaming analytics Apply various approaches for data ingestion Transform Big Data and into business insights Audience System administrators Data engineers Developers DevOps Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
dlfornlp Deep Learning for NLP (Natural Language Processing) 28 horas Deep Learning for NLP allows a machine to learn simple to complex language processing. Among the tasks currently possible are language translation and caption generation for photos. DL (Deep Learning) is a subset of ML (Machine Learning). Python is a popular programming language that contains libraries for Deep Learning for NLP. In this instructor-led, live training, participants will learn to use Python libraries for NLP (Natural Language Processing) as they create an application that processes a set of pictures and generates captions.  By the end of this training, participants will be able to: Design and code DL for NLP using Python libraries Create Python code that reads a substantially huge collection of pictures and generates keywords Create Python Code that generates captions from the detected keywords Audience Programmers with interest in linguistics Programmers who seek an understanding of NLP (Natural Language Processing)  Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
bdbitcsp Inteligencia de Negocios Big Data para Proveedores de Servicios de Comunicaciones y Telecomunicaciones 35 horas Los proveedores de servicios de comunicaciones (CSP) se enfrentan a presiones para reducir los costos y maximizar el ingreso promedio por usuario (ARPU), a la vez que garantizan una excelente experiencia del cliente, pero los volúmenes de datos siguen creciendo. El tráfico global de datos móviles crecerá a una tasa de crecimiento anual compuesta (CAGR) de 78 por ciento a 2016, alcanzando 10.8 exabytes al mes. Mientras tanto, los CSP están generando grandes volúmenes de datos, incluyendo registros de detalle de llamadas (CDR), datos de red y datos de clientes. Las empresas que explotan plenamente estos datos ganan una ventaja competitiva. Según una encuesta reciente de The Economist Intelligence Unit, las empresas que utilizan la toma de decisiones orientada a datos disfrutan de un aumento de 5-6% en la productividad. Sin embargo, el 53% de las empresas aprovechan sólo la mitad de sus datos valiosos, y una cuarta parte de los encuestados señaló que gran cantidad de datos útiles no se explotan. Los volúmenes de datos son tan altos que el análisis manual es imposible, y la mayoría de los sistemas de software heredados no pueden mantenerse al día, lo que resulta en que los datos valiosos sean descartados o ignorados. Con el software de datos grande y escalable de Big Data & Analytics, los CSP pueden extraer todos sus datos para una mejor toma de decisiones en menos tiempo. Diferentes productos y técnicas de Big Data proporcionan una plataforma de software de extremo a extremo para recopilar, preparar, analizar y presentar información sobre grandes datos. Las áreas de aplicación incluyen monitoreo del rendimiento de la red, detección de fraude, detección de churn del cliente y análisis de riesgo de crédito. Big Data & Analytics escala de productos para manejar terabytes de datos, pero la implementación de tales herramientas necesitan un nuevo tipo de sistema de base de datos basado en nube como Hadoop o procesador de cálculo paralelo a gran escala (KPU, etc.) Este curso de trabajo sobre Big Data BI para Telco cubre todas las nuevas áreas emergentes en las que los CSP están invirtiendo para obtener ganancias de productividad y abrir nuevos flujos de ingresos empresariales. El curso proporcionará una visión completa de 360 ​​grados de Big Data BI en Telco para que los tomadores de decisiones y los gerentes puedan tener una visión muy amplia y completa de las posibilidades de Big Data BI en Telco para la productividad y la ganancia de ingresos. Objetivos del Curso El objetivo principal del curso es introducir nuevas técnicas de Business Intelligence de Big Data en 4 sectores de Telecom Business (Marketing / Ventas, Operación de Red, Operación Financiera y Gestión de Relaciones con Clientes). Los estudiantes serán presentados a: Introducción a Big Data-lo que es 4Vs (volumen, velocidad, variedad y veracidad) en Big Data-Generation, extracción y gestión desde la perspectiva de Telco Cómo el analista de Big Data difiere de los analistas de datos heredados Justificación interna de Big Data - perspectiva de Tcco Introducción al ecosistema de Hadoop - familiaridad con todas las herramientas de Hadoop como colmena, cerdo, SPARC - cuándo y cómo se utilizan para resolver el problema de Big Data Cómo se extraen los datos grandes para analizar para la herramienta de análisis-cómo Business Analysis puede reducir sus puntos de dolor de la recopilación y el análisis de datos a través del enfoque de panel integrado de Hadoop Introducción básica de análisis de Insight, análisis de visualización y análisis predictivo para Telco Analítica de Churn de clientes y datos grandes: cómo Big Data analítico puede reducir el abandono de clientes y la insatisfacción de los clientes en los estudios de casos de Telco Análisis de fracaso de la red y fallos de servicio de Metadatos de red e IPDR Análisis financiero-fraude, desperdicio y estimación de ROI de ventas y datos operativos Problema de adquisición de clientes: marketing objetivo, segmentación de clientes y ventas cruzadas a partir de datos de ventas Introducción y resumen de todos los productos analíticos de Big Data y donde encajan en el espacio analítico de Telco Conclusión: cómo tomar un enfoque paso a paso para introducir Big Data Business Intelligence en su organización Público objetivo Operaciones de red, Gerentes Financieros, Gerentes de CRM y altos gerentes de TI en la oficina de Telco CIO. Analistas de Negocios en Telco Gerentes / analistas de oficina de CFO Gerentes operacionales Gerentes de control de calidad
pmml Modelos Predictivos con PMML 7 horas El curso se crea para científicos, desarrolladores, analistas o cualquier otra persona que desee estandarizar o intercambiar sus modelos con el formato de archivo PMML (Predictive Model Markup Language).
bigdatastore Big Data Solución de Almacenamiento - NoSQL 14 horas When traditional storage technologies don't handle the amount of data you need to store there are hundereds of alternatives. This course try to guide the participants what are alternatives for storing and analyzing Big Data and what are theirs pros and cons. This course is mostly focused on discussion and presentation of solutions, though hands-on exercises are available on demand.
predmodr Análisis Predictivo con R 14 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has a wide variety of packages for data mining.
caffe Aprendizaje Profundo para la Visión con Caffe 21 horas Caffe es un marco de aprendizaje profundo hecho con expresión, velocidad y modularidad en mente. Este curso explora la aplicación de Caffe como un marco de aprendizaje profundo para el reconocimiento de imágenes utilizando el MNIST como ejemplo Audiencia Este curso es adecuado para los investigadores e ingenieros de Deep Learning interesados en utilizar Caffe como marco. Después de completar este curso, los delegados podrán: entender la estructura de Caffe y los mecanismos de despliegue llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración evaluar la calidad del código, realizar depuración, monitoreo implementar la producción avanzada como modelos de entrenamiento, implementación de capas y registro
bspkannmldt Redes Neuronales Artificiales, Pensamiento Profundo y Aprendizaje Automático 21 horas
drools7dslba Drools 7 y DSL para Analistas de Negocios 21 horas Este curso de 3 días tiene como objetivo presentar Drools 7 a los analistas de negocios responsables de escribir pruebas y reglas. Este curso se enfoca en crear lógica pura. Los analistas después de este curso pueden escribir pruebas y lógica que luego pueden ser integradas por desarrolladores con aplicaciones comerciales.
Fairseq Fairseq: Setting up a CNN-based machine translation system 7 horas Fairseq is an open-source sequence-to-sequence learning toolkit created by Facebok for use in Neural Machine Translation (NMT). In this training participants will learn how to use Fairseq to carry out translation of sample content. By the end of this training, participants will have the knowledge and practice needed to implement a live Fairseq based machine translation solution. Audience Localization specialists with a technical background Global content managers Localization engineers Software developers in charge of implementing global content solutions Format of the course     Part lecture, part discussion, heavy hands-on practice Note If you wish to use specific source and target language content, please contact us to arrange.
samza Samza for stream processing 14 horas Apache Samza is an open-source near-realtime, asynchronous computational framework for stream processing.  It uses Apache Kafka for messaging, and Apache Hadoop YARN for fault tolerance, processor isolation, security, and resource management. This instructor-led, live training introduces the principles behind messaging systems and distributed stream processing, while walking participants through the creation of a sample Samza-based project and job execution. By the end of this training, participants will be able to: Use Samza to simplify the code needed to produce and consume messages Decouple the handling of messages from an application Use Samza to implement near-realtime asynchronous computation Use stream processing to provide a higher level of abstraction over messaging systems Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
fiji Fiji: Introduction to scientific image processing 21 horas Fiji is an open-source image processing package that bundles ImageJ (an image processing program for scientific multidimensional images) and a number of plugins for scientific image analysis. In this instructor-led, live training, participants will learn how to use the Fiji distribution and its underlying ImageJ program to create an image analysis application. By the end of this training, participants will be able to: Use Fiji's advanced programming features and software components to extend ImageJ Stitch large 3d images from overlapping tiles Automatically update a Fiji installation on startup using the integrated update system Select from a broad selection of scripting languages to build custom image analysis solutions Use Fiji's powerful libraries, such as ImgLib on large bioimage datasets Deploy their application and collaborate with other scientists on similar projects Audience Scientists Researchers Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
nifidev Apache NiFi for Developers 7 horas Apache NiFi (Hortonworks DataFlow) is a real-time integrated data logistics and simple event processing platform that enables the moving, tracking and automation of data between systems. It is written using flow-based programming and provides a web-based user interface to manage dataflows in real time. In this instructor-led, live training, participants will learn the fundamentals of flow-based programming as they develop a number of demo extensions, components and processors using Apache NiFi. By the end of this training, participants will be able to: Understand NiFi's architecture and dataflow concepts Develop extensions using NiFi and third-party APIs Custom develop their own Apache Nifi processor Ingest and process real-time data from disparate and uncommon file formats and data sources Audience Developers Data engineers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
smartrobot Smart Robots for Developers 84 horas A Smart Robot is an Artificial Intelligence (AI) system that can learn from its environment and its experience and build on its capabilities based on that knowledge. Smart Robots can collaborate with humans, working along-side them and learning from their behavior. Furthermore, they have the capacity for not only manual labor, but cognitive tasks as well. In addition to physical robots, Smart Robots can also be purely software based, residing in a computer as a software application with no moving parts or physical interaction with the world. In this instructor-led, live training, participants will learn the different technologies, frameworks and techniques for programming different types of mechanical Smart Robots, then apply this knowledge to complete their own Smart Robot projects. The course is divided into 4 sections, each consisting of three days of lectures, discussions, and hands-on robot development in a live lab environment. Each section will conclude with a practical hands-on project to allow participants to practice and demonstrate their acquired knowledge. The target hardware for this course will be simulated in 3D through simulation software. The ROS (Robot Operating System) open-source framework, C++ and Python will be used for programming the robots. By the end of this training, participants will be able to: Understand the key concepts used in robotic technologies Understand and manage the interaction between software and hardware in a robotic system Understand and implement the software components that underpin Smart Robots Build and operate a simulated mechanical Smart Robot that can see, sense, process, grasp, navigate, and interact with humans through voice Extend a Smart Robot's ability to perform complex tasks through Deep Learning Test and troubleshoot a Smart Robot in realistic scenarios Audience Developers Engineers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Note To customize any part of this course (programming language, robot model, etc.) please contact us to arrange.
bldrools Administración de la Lógica de Negocios con Drools 21 horas Este curso está dirigido a arquitectos empresariales, analistas de negocios y sistemas, gerentes técnicos y desarrolladores que quieran aplicar las reglas de negocio a sus soluciones. Este curso contiene una gran cantidad de ejercicios prácticos simples durante los cuales los participantes crearán reglas de trabajo. Por favor, consulte nuestros otros cursos si sólo necesita una visión general de Drools. Este curso se entrega generalmente en la versión más reciente estable de Drools y jBPM, pero en caso de un curso a medida, puede adaptarse a una versión específica.

Próximos Cursos

CursoFechaPrecio del Curso [A distancia / Presencial]
Python for Advanced Machine Learning - Buenos Aires - Laminar CatalinasMié, 2018-02-14 09:304475USD / 24506USD

Otras regiones

Cursos de Fin de Semana de Inteligencia Artificial, Capacitación por la Tarde de Inteligencia Artificial, Inteligencia Artificial boot camp, Clases de Inteligencia Artificial , Clases de Inteligencia Artificial , Inteligencia Artificial en sitio, Programas de capacitación de Inteligencia Artificial, Inteligencia Artificial con instructor, Instructor de Inteligencia Artificial, Talleres para empresas de Inteligencia Artificial, Cursos por la Tarde de Inteligencia Artificial,Capacitación de Fin de Semana de Inteligencia Artificial, Clases Particulares de Inteligencia Artificial, Cursos en linea de Inteligencia Artificial, Capacitación empresarial de Inteligencia Artificial, Inteligencia Artificial coaching, Cursos de Formación de Inteligencia Artificial, Cursos Privados de Inteligencia Artificial

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
Siempre puede cambiar sus preferencias o cancelar su suscripción por completo.

Algunos de nuestros clientes