¿Son las redes sociales realmente tan grandes como pensamos?

0
14
views

Mejora tu posicionamiento en las redes sociales con COOMMU!



<div _ngcontent-c14 = "" innerhtml = "

Getty Images. Getty

Una de las grandes ironías de la revolución del" big data "es lo poco que sabemos acerca de los datos que utilizamos. El mundo de " big data " podría llamarse mejor mundo de " big imagination. " Es particularmente irónico que nos hayamos fijado en las redes sociales como "big data" a pesar de no tener absolutamente ninguna visibilidad en Si estas plataformas son tan grandes como las imaginamos. A pesar de la promesa de "big data" para hacer que nuestro mundo sea transparente, recurrimos a las cajas negras que se comercializan agresivamente como repositorios de datos masivos pero se niegan para proporcionar incluso las estadísticas más rudimentarias acerca de la cantidad de datos que realmente poseen. A su vez, industrias enteras se han basado en la visión de las redes sociales como nuevos conjuntos de datos masivos que pueden arrojar nueva luz sin precedentes a la sociedad, incluso cuando operamos completamente en la oscuridad incierto de o los algoritmos datos o que usamos. Al observar más de cerca, descubrimos que los medios informativos tradicionales son en realidad solo unas pocas veces más pequeños que la totalidad de todos los billones de tweets combinados y son varias veces más grandes que incluso los conjuntos de datos de Twitter más grandes disponibles para los investigadores. Incluso el nuevo conjunto de datos de investigación de petabytes de Facebook palidece en comparación con lo que está disponible en los medios de comunicación. ¿Es hora de dar un paso atrás y preguntar si las redes sociales son realmente tan grandes como creemos que son?

¿Por qué es que las palabras "Facebook" y "Twitter" aparecen en casi todas las presentaciones o publicaciones sobre big data hoy? ¿Cómo se convirtieron las redes sociales en el punto de referencia que utilizamos para definir lo que entendemos por "big data"?

Lo más importante es cómo podemos definir las redes sociales como "big data" cuando no sabemos absolutamente qué tan grande es, cómo ¿Se actualiza rápidamente o qué tan variado es su contenido?

En sus primeros tiempos de crecimiento explosivo, tanto Facebook como Twitter publicaron actualizaciones periódicas sobre el tamaño de sus servicios. Sin embargo, en los últimos años, a medida que abundan los rumores de que el uso de los servicios se ha desacelerado (o en el caso de Facebook se cambió a Instagram), las compañías han dejado de ofrecer estadísticas tan detalladas.

 

¿Cuántas publicaciones e imágenes de textos nuevos se publican en Facebook cada día? ¿Cuántas palabras y píxeles suman esas publicaciones diariamente? ¿Cuántos enlaces se comparten en la plataforma cada día?

La respuesta es que simplemente no sabemos y no hay una auditoría externa independiente de los pocos números vagos que Facebook publica. En cuanto al número de enlaces compartidos diariamente en la plataforma, los únicos datos que tenemos son las estimaciones que la compañía publicó para el conjunto de datos de investigación que está compilando de sus archivos, lo que sugiere que compartir enlaces en Facebook es mucho más raro. de lo imaginado.

Por supuesto, es Twitter el que se ha convertido en la pieza central de la industria analítica de los medios sociales debido a su decisión de poner en marcha en tiempo real toda su plataforma disponible para el análisis.

A pesar de su ubicuidad y el hecho de que casi todas las plataformas de análisis de redes sociales en el mundo ofrecen al menos soporte básico de Twitter, la compañía no ha publicado números de volúmenes oficiales desde hace bastante tiempo.

Por su parte, cuando se le preguntó cuántos tweets se han publicado desde su fundación, un Twitter el portavoz de esta tarde ofreció solo "no hacer comentarios". Cuando se le preguntó por qué ya no publica tales números, la compañía no respondió.

No solía ser así. Twitter solía publicar regularmente sus últimos hitos

y en 2014 anunció con orgullo que había alcanzado medio billón de tweets.

En los últimos años, sin embargo, la compañía ha sido relativamente reticente con respecto a los números de crecimiento precisos que facilitarían la comprensión de la trayectoria de la empresa.

Tampoco se informó sobre el alcance geográfico y demográfico y la representatividad de su base de usuarios.

Extrapolación a partir de tendencias anteriores podemos estimar que ha habido poco más de un trillón tweets enviados desde la fundación del servicio.

A pesar del gran número de tweets, el límite histórico de tamaño de 140 caracteres de los tweets (que promediaron alrededor de 74 bytes en todo el Twitter en 2012) significa que los billones de tweets suman solo unas pocas decenas de terabytes de texto real, de los cuales una gran parte son publicaciones duplicadas en forma de proxeteros de retweets ying para " me gusta. "

En comparación con la cobertura de noticias en línea de los últimos cuatro años, vemos que la red de bomberos de Twitter completa es en realidad un poco más grande mientras que Decahose y el 1% de productos la mayoría de los investigadores con los que trabajan son considerablemente más pequeños . Incluso los libros digitalizados no están tan lejos.

Entonces, ¿por qué Facebook y Twitter se encuentran en el centro de nuestra conversación social en torno al big data en lugar del periodismo? ¿Por qué los investigadores de todo el mundo se apresuran a trabajar con tweets y publicaciones, pero no con noticias? ¿Por qué todas las ofertas de marketing y análisis tienen una suscripción a Twitter pero pocos archivos grandes de licencias de licencia? ¿Por qué las principales agencias de financiamiento están invirtiendo cientos de millones de dólares en la investigación en redes sociales, mientras que financiando pequeñas analíticas de noticias más allá de combatir las "noticias falsas"? ¿Por qué las revistas se apresuran a publicar un número especial tras un número especial sobre la investigación en redes sociales de "grandes volúmenes de datos", mientras ven? ¿El análisis del periodismo tradicional como datos pequeños obsoletos?

La respuesta es que nos centramos en las redes sociales porque las empresas se han comercializado agresivamente a sí mismas para definir "big data". Su crecimiento inicial se publicó en miles de millones de publicaciones y petabytes de datos, en lugar de medidas de impacto o conocimiento.

Perpetuamente, en busca de la próxima cosa nueva y brillante, los científicos de datos saltaron a bordo en masa, seducidos por las firmas de fuego y API amigables con las máquinas de la sociedad y ansiosos por capitalizar el tremendo interés de las agencias de financiamiento, lugares de publicación y

A su vez, hemos creado un mundo en el que nuestros análisis se basan en datos de los que no sabemos nada, procesamos d por algoritmos en los que no tenemos visibilidad.

A pesar de su promesa de hacer nuestro mundo transparente, el "big data" lo ha hecho más opaco de lo que jamás hubiéramos imaginado.

¿Cómo es posible que aceptemos los resultados compilados? ¿De los conjuntos de datos de la caja negra que se niegan incluso a decir la cantidad de datos que realmente tienen?

¿Cómo es posible que aceptemos que los datos de la caja negra sean totalmente desconocidos? Los algoritmos de la caja negra no conocemos absolutamente nada, realizar análisis que sabemos son excepcionalmente matizados y completamente distintos. ¿Dependen de las decisiones de sus creadores?

Después de todo, hace menos de una década que el lanzamiento en 2010 de la colección Google Books NGram se encontró con aullidos de protesta del mundo de la investigación que sus hallazgos carecían de todo significado porque no sabíamos exactamente lo que había en la colección de libros que componían sus datos.

En la década transcurrida desde entonces, los investigadores parecen haber cambiado de opinión, abrazando de todo corazón la i Dados de informar sobre las tendencias de los datos que desconocen. Al igual que la privacidad y la ética de los datos, la idea de saber algo acerca de sus datos se ha convertido en una reliquia del pasado.

¿Cómo llegamos a este punto?

Gran parte de la respuesta se encuentra en el hecho de que, a pesar de sus títulos , la mayoría de los "científicos de datos" no son realmente muy hábiles con los "datos". La mayoría son programadores o estadísticos (o ambos) que se destacan en cómo hacer preguntas sobre los datos pero carecen de las habilidades de pensamiento crítico para retroceder y preguntar si los datos que están usando en realidad responden a su pregunta y si los algoritmos que están usando para dar sentido a los datos están calculando fielmente lo que creen que son.

Un científico de datos típico sabe cómo hacer una gráfica o ejecutar una regresión o incluso construir Una red neuronal con facilidad. Sin embargo, a lo que sus antecedentes técnicos los hacen ciegos es la cuestión subyacente del sesgo de los datos. Pocos científicos de datos saben cómo aplicar ingeniería inversa al rendimiento de un algoritmo desde el exterior para evaluar qué tan bien podría funcionar en un contexto analítico dado. Aún menos tienen la experiencia mundana para dar un paso atrás y examinar completamente los matices, limitaciones y sesgos de un conjunto de datos antes de considerarlo para su análisis.

El resultado final es que los científicos de hoy en día buscan el conjunto de datos más fácil de obtener y con el que trabajar. Los medios sociales se han posicionado de lleno como el conjunto de datos de "big data", con Firehoses en tiempo real y APIs con procesos de autenticación simplistas, formatos de archivo JSON estándar de la industria y una gran máquina de marketing diseñada para crear un campo de distorsión de la realidad que retrata los medios sociales y grandes datos como uno en el mismo.

¿Las redes sociales nos brindan información no disponible a través de otras plataformas? La respuesta es que gran parte de la información que recibimos de las redes sociales se puede obtener fácilmente a través de otros medios como news .

El problema es que las redes sociales son más fáciles de usar. [19659003] Conecte algunos hashtags o palabras clave en un filtro y monitoree la alimentación de JSON Twitter en busca de picos afilados para alertar sobre cambios repentinos. Unas pocas líneas de código y unos pocos minutos de tiempo son todo lo que se necesita para configurar un sistema de alerta global basado en Twitter.

El monitoreo de noticias requiere una vasta infraestructura global capaz de manejar los mundos digital, de transmisión e impresión. También requiere construir toda la infraestructura de filtrado y soporte desde cero.

Lo más importante es que requiere una forma de pensar completamente diferente.

La simplicidad de Twitter hace que sea trivial de analizar. Los flujos de mensajes de alto contenido informativo y de bajo volumen se analizan esencialmente a través de filtros y conteos de volúmenes. Twitter es para todos los propósitos, datos de eventos de comportamiento, fácilmente susceptibles de análisis de flujo relativamente simples y detección de anomalías. Las tendencias se manifiestan en desviaciones altamente visibles que se pueden marcar fácilmente incluso a través de los procesos de filtración más básicos.

En contraste, los medios de noticias consisten en un volumen más bajo de contenido muy rico que contiene una capa encima de la capa de señales informativas y emocionales . Convertir ese contenido increíblemente rico y lleno de matices en contenido significativo es un problema mucho más difícil.

En resumen, extraer el significado de Twitter es similar a procesar cualquier otro tipo de datos de eventos de gran volumen y es un problema bien entendido y bastante bien resuelto. En muchos sentidos, es como construir un termostato: la señal de entrada es una señal numérica amigable para la máquina bien formada que puede ser fácilmente un umbral.

Extraer el significado del contenido de las noticias, por otro lado, es todavía un área activa de investigación, cayendo en la categoría de comprensión de la máquina clásica.

Visto desde este punto de vista, las redes sociales han ganado tal popularidad entre los científicos de datos porque no requieren casi ninguna habilidad para analizarlas o utilizarlas. En contraste, la extracción efectiva de significados de los medios informativos requiere la experiencia que poseen muy pocos científicos de datos.

Al juntar todo esto, las redes sociales se han convertido en el elemento principal de la revolución del "big data", no porque sea la fuente más grande y rica de información sobre la sociedad humana, sino más bien porque las plataformas sociales tomaron decisiones desde el principio para posicionarse para la comunidad de la ciencia de la información con Firehoses y API. Han construido máquinas de mercadeo masivas para cimentarse en la conciencia pública como empresas primarias de datos. Sus modalidades de alto volumen y bajo contenido hacen que sean triviales de analizar y, por lo tanto, fáciles de utilizar para los científicos de datos.

El notable éxito de las plataformas sociales en convencer al mundo de su tamaño e impacto en la ausencia total de números importantes para respaldar esas afirmaciones nos recuerda cuánto de nuestra comprensión de las redes sociales existe solo en nuestra imaginación. Los medios informativos son en realidad mucho más grandes y ricos que los conjuntos de datos sociales disponibles para los investigadores, pero el mundo periodístico aún no se ha rediseñado para la era digital y carece de la enorme máquina de marketing para posicionarse como información en la conciencia pública.

Al final, quizás la historia más importante es que, en lugar de hacer que el mundo sea transparente, la revolución del "big data" la ha sumido en la opacidad y ha creado un mundo en el que aceptamos hallazgos de algoritmos desconocidos que se ejecutan en datos desconocidos sin la menor preocupación en el mundo. Bienvenido a la & nbsp; realidad de big data.

">

Una de las grandes ironías de la revolución del "big data" es lo poco que sabemos sobre los datos que usamos. El mundo de "big data" podría llamarse mejor mundo de "gran imaginación". Es particularmente irónico que nos hayamos fijado en las redes sociales como "big data" a pesar de no tener ninguna visibilidad sobre si estas plataformas son tan grandes como nos imaginamos. A pesar de la promesa del "big data" de hacer que nuestro mundo sea transparente, recurrimos a las cajas negras que se comercializan agresivamente como repositorios de datos masivos, pero se niegan a proporcionar las estadísticas más rudimentarias sobre la cantidad de datos que realmente contienen. A su vez, industrias enteras se han basado en la visión de las redes sociales como nuevos conjuntos de datos masivos que pueden aportar una nueva luz sin precedentes a la sociedad, incluso cuando operamos completamente en la oscuridad, inciertos de los datos o algoritmos que utilizamos. Al observar más de cerca, descubrimos que los medios informativos tradicionales son en realidad solo unas pocas veces más pequeños que la totalidad de todos los billones de tweets combinados y son varias veces más grandes que incluso los conjuntos de datos de Twitter más grandes disponibles para los investigadores. Incluso el nuevo conjunto de datos de investigación de petabytes de Facebook palidece en comparación con lo que está disponible en los medios de comunicación. ¿Es hora de dar un paso atrás y preguntar si las redes sociales son realmente tan grandes como creemos que son?

¿Por qué es que las palabras "Facebook" y "Twitter" aparecen en casi todas las presentaciones o publicaciones sobre big data hoy? ¿Cómo se convirtieron las redes sociales en el punto de referencia que utilizamos para definir lo que entendemos por "big data"?

Lo más importante es cómo podemos definir las redes sociales como "big data" cuando no sabemos absolutamente qué tan grande es, cómo ¿Se actualiza rápidamente o qué tan variado es su contenido?

En sus primeros tiempos de crecimiento explosivo, tanto Facebook como Twitter publicaron actualizaciones periódicas sobre el tamaño de sus servicios. Sin embargo, en los últimos años, a medida que abundaban los rumores de que el uso de los servicios se ha desacelerado (o en el caso de Facebook se cambió a Instagram), las compañías han dejado de ofrecer estadísticas tan detalladas.

Cuántas publicaciones e imágenes de textos nuevos se publican en Facebook ¿cada día? ¿Cuántas palabras y píxeles suman esas publicaciones diariamente? ¿Cuántos enlaces se comparten en la plataforma cada día?

La respuesta es que simplemente no sabemos y no hay una auditoría externa independiente de los pocos números vagos que Facebook publica. En cuanto al número de enlaces compartidos diariamente en la plataforma, los únicos datos que tenemos son las estimaciones que la compañía publicó para el conjunto de datos de investigación que está compilando de sus archivos, lo que sugiere que compartir enlaces en Facebook es mucho más raro. de lo imaginado.

Por supuesto, es Twitter el que se ha convertido en la pieza central de la industria analítica de los medios sociales debido a su decisión de poner en marcha en tiempo real toda su plataforma disponible para el análisis.

A pesar de su ubicuidad y el hecho de que casi todas las plataformas de análisis de redes sociales en el mundo ofrecen al menos soporte básico de Twitter, la compañía no ha publicado números de volúmenes oficiales desde hace bastante tiempo.

Por su parte, cuando se le preguntó cuántos tweets se han publicado desde su fundación, un Twitter el portavoz de esta tarde ofreció solo "no hacer comentarios". Cuando se le preguntó por qué ya no publica tales números, la compañía no respondió.

No solía ser así. Twitter solía publicar regularmente sus últimos hitos

y en 2014 anunció con orgullo que había alcanzado medio billón de tweets.

En los últimos años, sin embargo, la compañía ha sido relativamente reticente con respecto a los números de crecimiento precisos que facilitarían la comprensión de la trayectoria de la empresa.

Tampoco se informó sobre el alcance geográfico y demográfico y la representatividad de su base de usuarios.

Extrapolación a partir de tendencias anteriores podemos estimar que ha habido poco más de un trillón tweets enviados desde la fundación del servicio.

A pesar del gran número de tweets, el límite histórico de tamaño de 140 caracteres de los tweets (que promediaron alrededor de 74 bytes en todo el Twitter en 2012) significa que los billones de tweets suman solo unas pocas decenas de terabytes de texto real, de los cuales una gran parte son publicaciones duplicadas en forma de proxeteros de retweets buscando "me gusta"

En comparación con la cobertura de noticias en línea de los últimos cuatro años, observamos que la redacción total de Twitter es en realidad un poco más grande mientras que los productos Decahose y 1% que la mayoría de los investigadores trabajan con son considerablemente más pequeños . Incluso los libros digitalizados no están tan lejos.

Entonces, ¿por qué Facebook y Twitter se encuentran en el centro de nuestra conversación social en torno al big data en lugar del periodismo? ¿Por qué los investigadores de todo el mundo se apresuran a trabajar con tweets y publicaciones, pero no con noticias? ¿Por qué todas las ofertas de marketing y análisis tienen una suscripción a Twitter pero pocos archivos grandes de licencias de licencia? ¿Por qué las principales agencias de financiamiento están invirtiendo cientos de millones de dólares en la investigación en redes sociales, mientras que financiando pequeñas analíticas de noticias más allá de combatir las "noticias falsas"? ¿El análisis del periodismo tradicional como datos pequeños obsoletos?

La respuesta es que nos centramos en las redes sociales porque las empresas se han comercializado agresivamente a sí mismas para definir "big data". Su crecimiento inicial se publicó en miles de millones de publicaciones y petabytes de datos, en lugar de medidas de impacto o conocimiento.

Perpetuamente, en busca de la próxima cosa nueva y brillante, los científicos de datos saltaron a bordo en masa, seducidos por las firmas de fuego y API amigables con las máquinas de la sociedad y ansiosos por capitalizar el tremendo interés de las agencias de financiamiento, lugares de publicación y

A su vez, hemos creado un mundo en el que nuestros análisis se basan en datos de los que no sabemos nada, procesamos d por algoritmos en los que no tenemos visibilidad.

A pesar de su promesa de hacer nuestro mundo transparente, el "big data" lo ha hecho más opaco de lo que jamás hubiéramos imaginado.

¿Cómo es posible que aceptemos los resultados compilados? ¿De los conjuntos de datos de la caja negra que se niegan incluso a decir la cantidad de datos que realmente tienen?

¿Cómo es posible que aceptemos que los datos de la caja negra sean totalmente desconocidos? Los algoritmos de la caja negra no conocemos absolutamente nada, realizar análisis que sabemos son excepcionalmente matizados y completamente distintos. ¿Dependen de las decisiones de sus creadores?

Después de todo, hace menos de una década que el lanzamiento en 2010 de la colección Google Books NGram se encontró con aullidos de protesta del mundo de la investigación que sus hallazgos carecían de todo significado porque no sabíamos exactamente lo que había en la colección de libros que componían sus datos.

En la década transcurrida desde entonces, los investigadores parecen haber cambiado de opinión, abrazando de todo corazón la i Dados de informar sobre las tendencias de los datos que desconocen. Al igual que la privacidad y la ética de los datos, la idea de saber algo acerca de sus datos se ha convertido en una reliquia del pasado.

¿Cómo llegamos a este punto?

Gran parte de la respuesta se encuentra en el hecho de que, a pesar de sus títulos , la mayoría de los "científicos de datos" no son realmente muy hábiles con los "datos". La mayoría son programadores o estadísticos (o ambos) que se destacan en cómo hacer preguntas sobre los datos pero carecen de las habilidades de pensamiento crítico para retroceder y preguntar si los datos que están usando en realidad responden a su pregunta y si los algoritmos que están usando para dar sentido a los datos están calculando fielmente lo que creen que son.

Un científico de datos típico sabe cómo hacer una gráfica o ejecutar una regresión o incluso construir Una red neuronal con facilidad. Sin embargo, a lo que sus antecedentes técnicos los hacen ciegos es la cuestión subyacente del sesgo de los datos. Pocos científicos de datos saben cómo aplicar ingeniería inversa al rendimiento de un algoritmo desde el exterior para evaluar qué tan bien podría funcionar en un contexto analítico dado. Aún menos tienen la experiencia mundana para dar un paso atrás y examinar completamente los matices, limitaciones y sesgos de un conjunto de datos antes de considerarlo para su análisis.

El resultado final es que los científicos de hoy en día buscan el conjunto de datos más fácil de obtener y con el que trabajar. Los medios sociales se han posicionado de lleno como el conjunto de datos de "big data", con Firehoses en tiempo real y APIs con procesos de autenticación simplistas, formatos de archivo JSON estándar de la industria y una gran máquina de marketing diseñada para crear un campo de distorsión de la realidad que retrata los medios sociales y grandes datos como uno en el mismo.

¿Las redes sociales nos brindan información no disponible a través de otras plataformas? La respuesta es que gran parte de la información que recibimos de las redes sociales se puede obtener fácilmente a través de otros medios como news .

El problema es que las redes sociales son más fáciles de usar. [19659003] Conecte algunos hashtags o palabras clave en un filtro y monitoree la alimentación de JSON Twitter en busca de picos afilados para alertar sobre cambios repentinos. Unas pocas líneas de código y unos pocos minutos de tiempo son todo lo que se necesita para configurar un sistema de alerta global basado en Twitter.

El monitoreo de noticias requiere una vasta infraestructura global capaz de manejar los mundos digital, de transmisión e impresión. También requiere construir toda la infraestructura de filtrado y soporte desde cero.

Lo más importante es que requiere una forma de pensar completamente diferente.

La simplicidad de Twitter hace que sea trivial de analizar. Los flujos de mensajes de contenido informativo de alto volumen bajo se analizan esencialmente a través de filtros y conteos de volumen. Twitter es para todos los propósitos, datos de eventos de comportamiento, fácilmente susceptibles de análisis de flujo relativamente simples y detección de anomalías. Las tendencias se manifiestan en desviaciones altamente visibles que se pueden marcar fácilmente incluso a través de los procesos de filtración más básicos.

En contraste, los medios de noticias consisten en un volumen más bajo de contenido muy rico que contiene una capa encima de la capa de señales informativas y emocionales . Convertir ese contenido increíblemente rico y lleno de matices en contenido significativo es un problema mucho más difícil.

En resumen, extraer el significado de Twitter es similar a procesar cualquier otro tipo de datos de eventos de gran volumen y es un problema bien entendido y bastante bien resuelto. En muchos sentidos, es como construir un termostato: la señal de entrada es una señal numérica amigable para la máquina bien formada que puede ser fácilmente un umbral.

Extraer el significado del contenido de las noticias, por otro lado, es todavía un área activa de investigación, cayendo en la categoría de comprensión de la máquina clásica.

Visto desde este punto de vista, las redes sociales han ganado tal popularidad entre los científicos de datos porque no requieren casi ninguna habilidad para analizarlas o utilizarlas. En contraste, la extracción efectiva de significados de los medios informativos requiere la experiencia que poseen muy pocos científicos de datos.

Al juntar todo esto, las redes sociales se han convertido en el elemento principal de la revolución del "big data", no porque sea la fuente más grande y rica de información sobre la sociedad humana, sino más bien porque las plataformas sociales tomaron decisiones desde el principio para posicionarse para la comunidad de la ciencia de la información con Firehoses y API. Han construido máquinas de mercadeo masivas para cimentarse en la conciencia pública como empresas primarias de datos. Sus modalidades de alto volumen y bajo contenido hacen que sean triviales de analizar y, por lo tanto, fáciles de utilizar para los científicos de datos.

El notable éxito de las plataformas sociales en convencer al mundo de su tamaño e impacto en la ausencia total de números importantes para respaldar esas afirmaciones nos recuerda cuánto de nuestra comprensión de las redes sociales existe solo en nuestra imaginación. Los medios informativos son en realidad mucho más grandes y ricos que los conjuntos de datos sociales disponibles para los investigadores, pero el mundo periodístico aún no se ha rediseñado para la era digital y carece de la enorme máquina de marketing para posicionarse como información en la conciencia pública.

Al final, quizás la historia más importante es que, en lugar de hacer que el mundo sea transparente, la revolución del "big data" la ha sumido en la opacidad y ha creado un mundo en el que aceptamos hallazgos de algoritmos desconocidos que se ejecutan en datos desconocidos sin la menor preocupación en el mundo. Bienvenido a la realidad del big data.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here