El futuro está en el presente: Big data



Las muchas funciones del big data en RRHH


Los recursos humanos no han sido tradicionalmente conocidos por usar big data... o por tener conjuntos de datos suficientemente grandes como para emplearlos en el análisis. Pero eso ha ido cambiando conforme más organizaciones reconocen la presencia y el potencial de el big data en múltiples áreas de RRHH.



Erik van Vulpen escribe para la Academia para Innovar los Recursos Humanos que si bien los datos de RRHH pueden carecer de volumen y ser en gran parte estáticos, tienen suficiente pluralidad y valor para generar valiosos conocimientos sobre la fuerza de trabajo a través de la inteligencia de negocios y el análisis de RRHH.



Acá hay una mirada a varias áreas donde el big data de recursos humanos tienen potencial.




Creando nuevas posiciones


RRHH también podría introducir nuevas situaciones enfocadas a los datos, como el detective de datos, Richard Binder escribe en Benefits Pro. Pensando que los equipos de RRHH inevitablemente aceptarán más funciones basadas en datos ... los investigadores (del Centro de Conocimiento para el Futuro del Trabajo y el Lugar de Trabajo Futuro) se imaginan a un detective de datos de RRHH que sintetizaría flujos de datos como portales de beneficios y encuestas a empleados con el objetivo de solucionar inconvenientes empresariales, escribe Binder. El Detective podría ir desde una inmersión en big data a explicar los conocimientos de la enorme imagen a los menos versados en datos, ayudando en última instancia a mejorar el rendimiento de los empleados.

Grandes herramientas de administración de datos y análisis de negocios que precisa conocer




Plataforma de Automatización de Procesos Analíticos Alteryx (APA)


La Plataforma de Automatización de Procesos Analíticos (APA) de Alteryx es un sistema de automatización de procesos analíticos, de aprendizaje automático y de ciencias de la información de extremo a extremo, empleado por analistas y científicos de datos para preparar, entremezclar, enriquecer y analizar datos. El Centro Analítico trabaja con la APA de Alteryx para consolidar los activos metódicos en un sistema donde se puede acceder y compartir por los trabajadores de datos. Intelligence Suite, una parte de la actualización de la plataforma Alteryx APA dos mil veinte.2, trabaja con Analytics Hub y Alteryx Designer para ayudar a los usuarios sin conocimientos de ciencia de datos a construir modelos predictivos.


Plataforma de datos Cloudera Nube privada


Cloudera Data Platform Private Cloud extiende la velocidad nativa de la nube, la simplicidad y la economía de la plataforma de datos Cloudera y sus capacidades de ciclo de vida de datos al centro de datos. Construido para entornos de nube híbridos, Cloudera Data Platform Private Cloud ayuda a la gestión de TI a satisfacer mejor la necesidad de acceso a los datos para labores de análisis y aprendizaje automático, al tiempo que simplifica la administración de la plataforma con herramientas de administración basadas en contenedores. Cloudera Data Platform Private Cloud puede reducir los costos del centro de datos al acrecentar la utilización de los servidores en un setenta por ciento, al tiempo que también reduce el almacenaje y los gastos generales del centro de datos, según la empresa.

Nube de Inteligencia de Datos Collibra


Collibra Data Intelligence Cloud es un sistema nativo de la nube, completamente gestionado, que automatiza los flujos de trabajo de datos, proporciona visibilidad de los activos de datos, garantiza la seguridad y crea una forma racionalizada a fin de que los usuarios empresariales accedan y examinen datos de confianza. Collibra Data Intelligence Cloud está construido sobre una arquitectura de microservicios para prosperar más de manera fácil los servicios de datos o desarrollar nuevos. También ofrece una puntuación de los datos, que calcula una medida de la calidad de los datos a nivel de atributos, y herramientas para administrar las peticiones de datos de los individuos.


Scylla Enterprise 2020


Scylla Enterprise dos mil veinte es una versión esencial de la base de datos NoSQL de alto rendimiento de ScyllaDB para grandes cargas de trabajo de datos en tiempo real. ScyllaDB posiciona su software como una alternativa a Amazon DynamoDB y Scylla Enterprise 2020 incluye Alternator, un API compatible con DynamoDB que ayuda a los usuarios de DynamoDB a mudar a Scylla sin mudar el código de la aplicación. La nueva versión también incluye nuevas capacidades de captura de datos de cambio y una nueva función de Transacciones Ligeras que amplía las opciones de consistencia de datos de ScyllaDB.



Zendesk Explore Enterprise


Una nueva adición a la plataforma de servicio al cliente del servicio de Zendesk, Explore Enterprise deja el análisis en tiempo real de los datos de servicio al usuario para tomar decisiones más informadas sobre ventas, soporte y productos para comprender las necesidades alterables de los clientes y mejorar las experiencias de exactamente los mismos. Explore Enterprise permite el monitoreo de datos a través de los canales de atención al usuario usando gráficos en vivo preconstruidos y personalizables, y mejora la colaboración del equipo con capacidades avanzadas de intercambio de informes y programación.




Lo que el big data significan para su pequeña empresa



En un planeta cada vez más digital, la cantidad de datos que una pequeña empresa debe analizar aumenta cada año. Aprende lo que significan el big data para tu PYME.


Internet sólo existe desde hace 3 décadas, pero en ese tiempo parcialmente corto, se ha transformado en una de las herramientas más esenciales a nuestra predisposición colectiva. Como dueño de una pequeña empresa, puede utilizarla para compendiar datos que le ayuden a tomar resoluciones comerciales informadas, ejecutar análisis predictivos para futuras ventas y mejorar la experiencia del cliente del servicio.

Todas esas funciones son el resultado de big data. Al aprender a digerirlos y emplearlos, su pequeña empresa puede convertir una valiosa información en acción.

¿Qué es el big data?


En su núcleo, big data es lo que semeja. Gracias a los avances en la tecnología, podemos recoger y comprender conjuntos de datos masivos y complejos que fluyen a una velocidad increíble. Dado que estos grandes conjuntos de datos pueden proceder de una amplia gama de fuentes a un volumen que los humanos no pueden entender, confiamos en un avanzado software de procesamiento de datos para hacer que esos datos sean utilizables.

Sitios como Internet Live Stats facilitan la visualización de big data y la velocidad a la que una cantidad insana de información fluye por medio de Internet. Por poner un ejemplo, ILS estima que cien con cinco Tb de tráfico de Internet, ochenta y cinco y ochocientos treinta y seis buscas en Google y nueve mil ciento treinta y nueve tweets se mandan en un segundo.

Sin embargo, el big data proceden de más fuentes que solo la Internet. La computadora de a bordo de su auto recoge miles de puntos de datos sobre sus hábitos de conducción que el fabricante puede emplear para determinar futuros cambios en sus autos, mientras que los distribuidores de seguros pueden utilizar esos datos para ajustar sus tarifas.

Las grandes herramientas de datos modernas nos dejan analizar velozmente los resultados del pasado y el estado del presente para decidir qué acción sería la más efectiva en una situación particular, afirmó Ivan Kot, gerente senior de Itransition.

A través del uso de dicha herramienta, afirmó Kot, el género de datos que fluyen mediante una fuente externa (como Internet) o bien una fuente interna (como los centros de llamadas internos y los registros de sitios web) puede asistir a las pequeñas empresas a pronosticar los resultados, prevenir el fraude e impulsar la innovación.

¿De qué forma marcha el big data?


Puede asistir a entender el big data en concepto de pesca comercial. Si tratas de dirigir un negocio siendo el único pescador parado a la vera de un riachuelo, no vas a generar muchos peces. No obstante, si tienes una flota de barcos, cada uno con grandes trampas y amplias redes, obtendrás muchos peces de varias especies. Los programas de datos grandes son como esa flota de navíos, y los peces son todos y cada uno de los diferentes géneros de datos que producimos día a día.

Una vez recogidos, los datos son analizados por las compañías que usan las técnicas de big data. Este análisis permite a un científico de datos entender una multitud de formas en que una empresa puede ser más eficiente y aumentar los beneficios. el big data marchan para algo más que las necesidades de los usuarios - el campo médico asimismo usa esos datos para pronosticar mejor la propagación de enfermedades.

Las empresas usan el big data para obtener información sobre una serie de cosas, incluyendo los patrones y comportamientos de los clientes - más comúnmente, los comportamientos de adquiere, afirmó Jack Zmudzinski, asociado senior de Future Processing. La razón por la cual el big data son tan vitales para los negocios es que pueden asistir a identificar nuevas oportunidades de crecimiento e incluso nuevas industrias a través del examen de la información de los clientes.

Un científico de datos puede emplear el big data para suministrar un contexto por medio de consultas para identificar los conocimientos y los resultados de los datos. La automatización y las herramientas de flujo de trabajo automatizarían entonces las acciones basadas en los datos, conforme James Ford, que tiene un doctorado en ciencias de los datos y es el cofundador de AutoBead.

Tradicionalmente, los tipos de tecnología utilizados por quienes invertían en grandes iniciativas de datos incluían géneros de bases de datos como SQL o bien NoSQL, que se conectaban a través de un bus de servicio empresarial (integraciones de bases de datos y puntos finales), lo que estandarizaba los datos y permitía que funcionaran juntos, afirmó Ford. Las soluciones de procesamiento de datos a gran escala como Apache Hadoop o bien Databricks dejan el procesamiento y análisis de datos a gran escala.

Gracias al avance de la computación en nube, dijo Ford, el software de base de datos como el Cosmos DB de Microsoft Azure puede albergar múltiples tipos de bases de datos en una base de datos. Debido a ello, los equipos ya no precisan invertir en costosos y difíciles sistemas de integración, puesto que todos los datos existen en un solo sitio, separados por políticas de seguridad y lógica en vez de API y distancia.




De qué manera el big data pueden ayudar a las finanzas de las compañías


el big data son ahora parte de nuestra vida cotidiana, ¡aun si somos conscientes de ello o bien no! La analítica, la IA y otros programas de datos en funcionamiento recogen de forma continua información, que nos da una idea de quién, qué y dónde está ocurriendo una transacción. Las compañías más grandes han implementado estos datos para satisfacer la siempre variable demanda de los clientes y promover las ventajas y mitigar las pérdidas.

No obstante, esta información recopilada puede ser bastante inútil cuando se trata de datos salvo que esté categorizada, y las compañías saben lo que están buscando. Esto significa que los datos entrantes deben organizarse con eficacia para que las compañías puedan usarlos para identificar la información sobre sus finanzas y actuar en consecuencia con los datos.

En el artículo se discutirá de qué manera el big data pueden asistir a las finanzas de las compañías y qué es lo que hay que buscar para hacer las mejoras.


Perspectivas en tiempo real de el big data


Uno de las ventajas más sobresalientes que el big data tienen para ofrecer a un negocio es la comprensión en tiempo real. Nunca ya antes habíamos sido capaces de monitorear los costes de la demanda con precisión, nuestros competidores, las tendencias en el mercado de valores, o aun las tendencias políticas y sociales justo cuando suceden. Debido a la cantidad de datos que se recogen, los datos apropiados y relevantes son entonces tamizados, y esto puede ser organizado y presentado como un medio para guiar la siguiente decisión del negocio.


 Detección y prevención del fraude con big data


Otro beneficio útil de tener big data al alcance de un negocio es que la IA puede notar patrones o bien comportamientos infrecuentes, detectando velozmente el fraude. Ciertos de estos patrones inusuales pueden incluir hábitos de gasto sospechosos de tarjetas de crédito o grandes cantidades de dinero gastadas. Esto se marca de forma automática como sospechoso, lo que quiere decir que la interacción puede cerrarse a una velocidad significativa, y los bancos pueden ser alertados.

Desafortunadamente, el fraude financiero es extremadamente común, con lo que prosperar la recolección de datos online y otros programas de inteligencia artificial puede asistir a limitar el daño que el fraude puede ocasionar a sus víctimas.



Big data: ¿Qué tan amplio debe ser tu lente? Depende de su uso


La cantidad de datos que entran en su sistema puede marcar una gran diferencia en su almacenamiento, ancho de banda y presupuesto. Considere la posibilidad de reducir su apertura.

Con big data que llegan a las organizaciones de todo el mundo a razón de 2,5 quintillones de bytes de datos cada día, corresponde a las organizaciones determinar qué cantidad de estos big data es vital y necesaria, y qué porciones de el big data son excesivas y pueden eliminarse antes de que los datos lleguen a los sistemas corporativos. Si las empresas no lo hacen, el ancho de banda, el almacenaje y las capacidades de procesamiento se pueden exceder, así como los presupuestos.

Para cada operación y análisis que las compañías efectúan con big data, la clave es acotar cada caso de empleo comercial de antemano y predeterminar la cantidad de datos que para que sirve el big data verdaderamente precisará para abordar el caso comercial. Inevitablemente, va a haber algunos datos que sencillamente no se precisan. Separar estos datos de su proceso de ingestión de datos es lo que yo llamo estrechar la apertura de la lente por medio de la que los datos fluyen cara su depósito de datos.

Acá hay dos ejemplos discordantes de ajuste de la lente de datos:

IBM RoboRXN y la mecánica de la formulación molecular


Cuando IBM diseñó su proyecto RoboRXN, que recoge enormes cantidades de datos no editados de la comunidad mundial de código abierto y otros sobre posibles combinaciones moleculares para la formulación de productos, hubo que tomar resoluciones sobre la cantidad de esos datos que era pertinente para el proyecto en el que estaban trabajando.

El proyecto RoboRXN se centró en el diseño de nuevas moléculas para soluciones farmacéuticas, como la vacuna COVID-diecinueve. Esto significaba que no se necesitaban libros blancos, resultados de investigaciones estadísticas y otras fuentes de investigación que no tenían relación directa con el proyecto de formulación molecular en el que se estaba trabajando. Lo que IBM decidió hacer fue implementar la inteligencia artificial (IA) al frente del proceso de ingestión de datos mientras que este enorme tesoro de datos no editados se estaba acumulando.

El algoritmo de IA planteó una pregunta importante: ¿Cada elemento de los datos entrantes contenía algo relevante para el enfoque del proyecto? Para las investigaciones que no estaban en lo más mínimo relacionadas con el proyecto, o bien que sólo estaban relacionadas de forma distante y tangencial, la IA suprimió los datos, con lo que nunca fueron admitidos en el depósito de datos. En otras palabras, la apertura de la lente de datos al repositorio de datos del proyecto se estrechó, aceptando solo aquellos elementos de datos que eran relevantes para el proyecto. Como resultado, se redujo el almacenamiento y el procesamiento de datos, y también el costo.

El SETI y la busca de vida extraterrestre


Fundado en mil novecientos ochenta y cuatro, la misión del Instituto SETI era buscar vida extraterrestre. Esto se hizo mediante la vigilancia de las señales de radio y las emisiones del espacio para determinar si había algún patrón repetitivo que pudiese representar una comunicación de otra forma de vida. Científicos y voluntarios participaron en la iniciativa del SETI, examinando minuciosamente montañas de señales de radio sin editar que fluían sin cesar.

En este esmero, se pudieron hacer pocas suposiciones por adelantado sobre los datos buenos frente a los malos, por el hecho de que absolutamente nadie estaba plenamente seguro de lo que buscaba. En consecuencia, había pocas maneras de estrechar la apertura de la lente de datos, que debía sostenerse abierta. Esto dio sitio a altos niveles de procesamiento, almacenamiento y trabajo manual.

Lo que el Instituto pudo hacer fue reducir los datos después de haberlos buscado en suma para hallar señales potenciales que pudieran apuntar formas de vida inteligentes. En este punto, solo las señales con potencial de vida precisaban ser guardadas en bases de datos considerablemente más pequeñas.



Los cinco pasos primordiales para una buena ciencia de los datos


Bastante gente habla de la ciencia de los datos. Pocos saben de qué hablan y todavía menos son siendo conscientes de cómo funciona. Mas, se emplea en todas y cada una partes hoy en día, así que incluso si no eres un científico de datos, es bueno saber cuáles son los pasos básicos. Acá hay 5 pasos básicos para la ciencia de los datos.

  1. ¿Por qué razón lo haces? ¿Estás resolviendo un inconveniente? ¿Qué inconveniente es? La ciencia de los datos no es una salsa que se extiende sobre las cosas para mejorarlas de alguna forma. Es una forma de abordar los inconvenientes. Sepa qué inconveniente procura solucionar su empresa antes de pedirle a la ciencia de los datos que lo resuelva.

  2. Recopile los datos. Cuando conozca la razón de su negocio, su científico de datos puede empezar a averiguar qué datos pertenecen a él y recogerlos. No se limite a escoger los datos disponibles o se arriesgue a introducir un sesgo.

  3. Analice los datos. El análisis exploratorio de datos (EDA) es el enfoque más común. Revela lo que los datos pueden decirle. El EDA suele ser bueno para descubrir las áreas en las que se desea compilar más datos. Un buen EDA usa un conjunto predefinido de directrices y umbrales para ayudar a superar el sesgo.

  4. Construya sus modelos y pruebe si son válidos. Una vez que haya analizado los datos puede hacer su modelo de aprendizaje automático que tiene como propósito suministrar una buena solución al inconveniente de la compañía. Ya antes de establecer un modelo, asegúrese de experimentar con algunas opciones y ciclos de validación convenientes.

  5. Resultados. Ejecute el modelo e interprete los resultados. Mucha gente no se percata de que la inteligencia artificial no solo le dice la solución a su problema. Los modelos de aprendizaje automático ofrecen resultados que los humanos interpretan. Los conocimientos de los científicos de datos son los que hacen que el resultado sea algo sobre lo que se pueda actuar.


Seguro que esto causa que suene de esta manera de simple, y evidentemente cualquier científico de datos sabe que la prueba está en todo ese trabajo para hacer que estas cosas sucedan, mas conocer lo básico puede asistir a tomar mejores resoluciones que van a ayudar a sus científicos de datos a hacer mejor su trabajo. Todo el mundo gana. Incluso la máquina.

Certificaciones en ciencias de la información para progresar tu currículo y tu salario.


A finales de agosto, Glassdoor tenía más de cincuenta y tres ofertas de empleo que mentaban el aprendizaje automático (ML) y 20.000 trabajos que incluían la ciencia de los datos con salarios que iban de cincuenta a más de ciento ochenta dólares americanos. Cada vez más empresas hacen del análisis de datos y del aprendizaje automático un factor central del desarrollo de nuevos productos y de las oportunidades de ingresos futuros.

Las grandes empresas de tecnología, así como las organizaciones tecnológicas independientes, ofrecen programas de capacitación para personas que son nuevas en la ciencia de los datos, de esta forma como para profesionales que quieren dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos on line para la ciencia de los datos ampliará su experiencia y añadirá un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículum.

Ingeniero profesional de aprendizaje automático de Google


Si puedes pasar este examen que está en versión beta, eres certificado por Google Cloud. Google recomienda que los examinandos tengan cuando menos 3 años de experiencia práctica con los productos y soluciones de Google Cloud.

El examen dura cuatro horas y cuesta ciento veinte dólares estadounidenses. Las seis secciones del examen cubren:

  • Enmarcar el problema del ML

  • Arquitectura de la solución ML

  • Preparación y procesamiento de datos

  • Desarrollo del modelo de ML

  • Automatización y orquestación del oleoducto de ML

  • Monitoreo, optimización y mantenimiento de la solución de ML




Certificación en Inteligencia de Negocios de Oracle


Esta capacitación va a preparar a las personas para utilizar el software de Oracle para optimar las operaciones comerciales y crear informes, modelos y previsiones. Oracle ofrece formación en inteligencia empresarial en 4 categorías:

  1. BI Enterprise Edition - aprenda a construir y dirigir cuadros de mando

  2. Essbase - aprenda a utilizar el procesamiento metódico en línea para pronósticos y análisis

  3. BI Publisher - aprende a crear y dar informes y otros documentos

  4. Aplicaciones de BI - aprenda a instalar, configurar y personalizar las aplicaciones de BI de Oracle y el almacén de inteligencia de negocios de Oracle


Las certificaciones están disponibles para los 2 primeros programas de entrenamiento.

El programa de certificado de desarrollo de TensorFlow


Los desarrolladores que aprueben el examen pueden unirse a la Red de Certificados de TensorFlow. Este manual cubre los criterios para tomar el examen, incluyendo una lista de verificación de habilidades, elegibilidad y recursos tolerados durante el examen.

Para aprobar el examen, los examinandos deben entender:

  1. Los principios fundamentales del ML y el aprendizaje profundo

  2. Edificando modelos de ML en TensorFlow 2.x

  3. Construyendo reconocimiento de imágenes, detección de objetos, algoritmos de reconocimiento de texto con redes neuronales profundas y redes neuronales convolucionales

  4. Utilizando imágenes del mundo real de diferentes formas y tamaños para visualizar el viaje de una imagen por medio de las convoluciones para entender

  5. de qué forma una computadora ve la información, la pérdida de la trama y la precisión

  6. Explorando estrategias para prevenir el exceso de equipamiento, incluyendo el aumento y los abandonos

  7. Aplicando redes neuronales para solucionar problemas de procesamiento de lenguaje natural usando TensorFlow


Si estos temas son nuevos para ti, echa una ojeada al DeepLearning.ai TensorFlow in Practice Specialization on Coursera o al curso de Introducción al TensorFlow for Deep Learning sobre Udacity.

El examen cuesta cien dólares.

Leave a Reply

Your email address will not be published. Required fields are marked *