Arquitectura big data (IFCT127PO)
Sectores
Intersectorial; Servicios a las empresas
Áreas
Marketing digital; Programación; Redes y sistemas
Dirigido a
Autónomos; Economia Social; Empleados
Disponible en las siguientes provincias
Albacete, Alicante, Almería, Araba/Álava, Asturias, Ávila, Badajoz, Barcelona, Burgos, Caceres, Cádiz, Cantabria, Castellón, Ceuta, Ciudad Real, Cordoba, Cuenca, Girona, Granada, Guadalajara, Huelva, Huesca, Illes Balears, Jaén, La Rioja, Las Palmas, León, Lleida, Lugo, Madrid, Málaga, Melilla, Murcia, Navarra, Ourense, Palencia, Pontevedra, Salamanca, Santa Cruz, Segovia, Sevilla, Soria, Tarragona, Teruel, Toledo, Valencia, Valladolid, Zamora, Zaragoza
Objetivos
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
Contenidos
1. Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark Core.
1.7. Spark 2.0.
2. Streaming processing.
2.1. Fundamentos de Streaming Processing.
2.2. Spark Streaming.
2.3. Kafka.
2.4. Pulsar y Apache Apex.
2.5. Implementación de un sistema real-time.
3. Sistemas NOSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4J.
3.5. Redis.
3.6. Berkeley DB.
4. Interactive query.
4.1. Lucene + Solr.
5. Sistemas de computación híbridos.
5.1. Arquitectura Lambda.
5.2. Arquitectura Kappa.
5.3. Apache Flink e implementaciones prácticas.
5.4. Druid.
5.5. ElasticSearch.
5.6. Logstash.
5.7. Kibana.
6. Cloud computing.
6.1. Amazon Web Services.
6.2. Google Cloud Platform.
7. Administración de sistemas big.
7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: Apache Knox, Ranger y Sentry.
8. Visualización de datos.
8.1. Herramientas de visualización: Tableau y CartoDB.
8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.
Requisitos para Programación:
Intersectorial
Objetivos:
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
Contenidos:
- Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark Core.
1.7. Spark 2.0.
- Streaming processing.
2.1. Fundamentos de Streaming Processing.
2.2. Spark Streaming.
2.3. Kafka.
2.4. Pulsar y Apache Apex.
2.5. Implementación de un sistema real-time.
- Sistemas NOSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4J.
3.5. Redis.
3.6. Berkeley DB.
- Interactive query.
4.1. Lucene + Solr.
- Sistemas de computación híbridos.
5.1. Arquitectura Lambda.
5.2. Arquitectura Kappa.
5.3. Apache Flink e implementaciones prácticas.
5.4. Druid.
5.5. ElasticSearch.
5.6. Logstash.
5.7. Kibana.
- Cloud computing.
6.1. Amazon Web Services.
6.2. Google Cloud Platform.
- Administración de sistemas big.
7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: Apache Knox, Ranger y Sentry.
- Visualización de datos.
8.1. Herramientas de visualización: Tableau y CartoDB.
8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.
Requisitos para Marketing digital:
Intersectorial
Objetivos:
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
Contenidos:
- Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark Core.
1.7. Spark 2.0.
- Streaming processing.
2.1. Fundamentos de Streaming Processing.
2.2. Spark Streaming.
2.3. Kafka.
2.4. Pulsar y Apache Apex.
2.5. Implementación de un sistema real-time.
- Sistemas NOSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4J.
3.5. Redis.
3.6. Berkeley DB.
- Interactive query.
4.1. Lucene + Solr.
- Sistemas de computación híbridos.
5.1. Arquitectura Lambda.
5.2. Arquitectura Kappa.
5.3. Apache Flink e implementaciones prácticas.
5.4. Druid.
5.5. ElasticSearch.
5.6. Logstash.
5.7. Kibana.
- Cloud computing.
6.1. Amazon Web Services.
6.2. Google Cloud Platform.
- Administración de sistemas big.
7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: Apache Knox, Ranger y Sentry.
- Visualización de datos.
8.1. Herramientas de visualización: Tableau y CartoDB.
8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.
Requisitos para Redes y sistemas:
Servicios a las empresas
Objetivos:
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
Contenidos:
- Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark Core.
1.7. Spark 2.0.
- Streaming processing.
2.1. Fundamentos de Streaming Processing.
2.2. Spark Streaming.
2.3. Kafka.
2.4. Pulsar y Apache Apex.
2.5. Implementación de un sistema real-time.
- Sistemas NOSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4J.
3.5. Redis.
3.6. Berkeley DB.
- Interactive query.
4.1. Lucene + Solr.
- Sistemas de computación híbridos.
5.1. Arquitectura Lambda.
5.2. Arquitectura Kappa.
5.3. Apache Flink e implementaciones prácticas.
5.4. Druid.
5.5. ElasticSearch.
5.6. Logstash.
5.7. Kibana.
- Cloud computing.
6.1. Amazon Web Services.
6.2. Google Cloud Platform.
- Administración de sistemas big.
7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: Apache Knox, Ranger y Sentry.
- Visualización de datos.
8.1. Herramientas de visualización: Tableau y CartoDB.
8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.