¿Por qué necesitamos más visibilidad en los algoritmos de análisis de redes sociales que utilizamos?

0
28
views

Mejora tu posicionamiento en las redes sociales con COOMMU!



<div _ngcontent-c14 = "" innerhtml = "

Getty Images Getty Images

Las redes sociales se han convertido cada vez más en la lente a través de la cual observamos el mundo humano moderno. A su vez, la vasta industria de Las plataformas de análisis de medios sociales se han convertido en los instrumentos a través de los cuales usamos esa lente para dar sentido a la sociedad. Sin embargo, a pesar de que las decisiones gubernamentales y empresariales del mundo real se toman en cuenta en sus resultados, sabemos poco sobre los algoritmos que impulsan la mayoría de estas plataformas, especialmente sus

Casi todas las plataformas de análisis de redes sociales de hoy en día ofrecen alguna forma de análisis de sentimientos, típicamente una simple neutralidad positiva. puntaje negativo, pero también ocasionalmente algunas categorías adicionales más matizadas como la alegría o el miedo.

Estos puntajes de sentimiento se han convertido en un recurso para la comprensión de la sociedad. Las tendencias, clasificando la reacción a los temas y ayudando a orientar las decisiones comerciales y de marketing.

Calcular el sentimiento de las redes sociales es una tarea extremadamente difícil llena de complejidades.

 

Desafortunadamente, pocas compañías de medios sociales ofrecen detalles técnicos importantes sobre cómo funcionan sus algoritmos de sentimiento, tratándolos como secretos comerciales patentados.

Algunos revelan que sus sistemas son contadores de palabras tradicionales y simples que contienen dos listas de palabras, una para las palabras “positivas” y otra para las palabras “negativas” y solo cuente cuántas palabras de un tweet hay en cada lista. Algunos agregan un puntaje a cada palabra que registra lo "positivo" o "negativo", para diferenciar entre "amor" y "me gusta" o "odiar" y "no gustar". Algunos usan algoritmos estadísticos o neuronales más sofisticados. Sin embargo, casi ninguno comparte sus listas de palabras o algoritmos reales.

La visibilidad rudimentaria de los algoritmos de sentimiento se puede encontrar al filtrar solo los tweets positivos o negativos y luego usar la función de histograma de nube de palabras que ofrece la mayoría de las plataformas para ver qué palabras parecen dominar esos tweets Esto puede ayudar a identificar discrepancias de vocabulario particularmente evidentes.

Por ejemplo, una herramienta clasificó los tweets de baloncesto como sustancialmente más negativos que los tweets de fútbol. El culpable resultó ser el hecho de que muchos tweets de baloncesto en la muestra contenían la palabra "corte" para referirse a la cancha de baloncesto, mientras que el diccionario de opiniones de la herramienta etiquetado como "corte" era una palabra altamente negativa, suponiendo que siempre se refería a una ley legal.

De manera similar, otro análisis mostró que los tweets sobre los republicanos son mucho más positivos que los demócratas porque durante el período de muestra a menudo se hacía referencia a los demócratas como simplemente "demócratas", mientras que a los republicanos se les llamaba constantemente "el partido republicano". la palabra "parte" estaba siendo etiquetada incorrectamente por el algoritmo como una palabra muy positiva.

Los algoritmos de sentimiento de ingeniería inversa de esta manera pueden ayudar a identificar desalineaciones entre los diccionarios del algoritmo y el dominio específico que se está examinando. Algunas plataformas de análisis social permiten a sus usuarios ajustar manualmente los diccionarios de sentimientos aplicados a un análisis dado, apoyando la adaptación de dominios, aunque no todos lo hacen. Tal análisis algorítmico también puede dar pistas sobre la procedencia de su diccionario, con algunas plataformas que utilizan diccionarios de sentimientos de código abierto bien conocidos y ligeramente modificados.

Algunos proporcionan pistas enterradas en su documentación interna del usuario, como señalar que su sistema de sentimientos fue inicialmente capacitado en unos pocos cientos de miles o millones de tweets cuando la empresa se fundó por primera vez y no se ha actualizado desde entonces. De hecho, pocos actualizan sus diccionarios hora a hora en tiempo real para capturar los últimos matices lingüísticos de Twitter.

El uso de un diccionario basado en unos pocos millones de tweets muestreados de hace una década suscita serias preocupaciones sobre cuáles son esos resultados en realidad

La mayoría de los usuarios de la plataforma de análisis de redes sociales no son científicos de datos, lo que significa que probablemente no estén pensando de manera crítica sobre este tipo de preguntas o realizando evaluaciones sistemáticas de los resultados que reciben.

La detección de lenguaje es otra opaca pero de importancia crítica algoritmo cuando se buscan palabras que tienen diferentes significados en diferentes idiomas o que representan el nombre de una marca en un idioma pero una palabra común no relacionada en otro.

A primera vista, puede parecer que es relativamente trivial determinar el idioma de un tweet determinado. . Sin embargo, la pequeña cantidad de texto y la prevalencia de acrónimos y la terminología de la jerga hacen que el contenido de las redes sociales sea especialmente difícil para los algoritmos de detección de idiomas tradicionales. Herramientas como la biblioteca de detección de idiomas de Google Chrome (CLD2) se pueden aplicar fácilmente a los tweets con resultados bastante útiles, pero muchas plataformas de análisis implementan sus propios algoritmos personalizados que se han optimizado para uso social, especialmente Twitter. [19659003] Las bibliotecas ampliamente utilizadas como CLD2 tienen características de rendimiento bien entendidas y una extensa documentación sobre sus casos de borde. Algunos, como CLD2, son completamente de código abierto, lo que permite a los usuarios avanzados comprender de manera precisa cómo llega el algoritmo a sus determinaciones e identificar de manera proactiva los entornos en los que puede tener problemas.

En contraste, pocas empresas de análisis de redes sociales ofrecen mucho en la forma de documentación de sus sistemas propietarios de detección de lenguaje. Muchos se niegan a responder preguntas técnicas específicas, como el tipo de algoritmo y el tamaño y el origen de sus datos de capacitación, ya que tratan dicha información como información comercial patentada.

De manera similar al sentimiento, a veces es posible aplicar la ingeniería inversa de que la "propiedad" de una empresa determinada el algoritmo es en realidad solo una biblioteca estándar como CLD2 con algunos pasos básicos de preprocesamiento de sentido común como eliminar hipervínculos y referencias de @nombre de usuario.

La mayoría de las veces, sin embargo, es simplemente imposible saber cómo funciona el algoritmo de detección de lenguaje de una empresa. 19659003] Confiar en un algoritmo de terceros sin comprender sus matices y casos extremos es extremadamente peligroso a la hora de interpretar los resultados que produce. Si una plataforma analítica informa que los tweets holandeses sobre un tema se han reducido en cinco veces en un período de 24 meses hasta casi cero, ¿significa eso que los holandeses simplemente han dejado de hablar sobre ese tema o podría ser simplemente eso? Las prácticas holandesas de Twitter, desde el uso de la jerga hasta las abreviaturas, han evolucionado de tal manera que el algoritmo de detección de lenguaje de la compañía se está volviendo cada vez menos preciso para detectar el idioma.

Sin información adicional, no hay manera de saber si las tendencias lingüísticas son

La comparación de resultados a través de múltiples compañías de análisis social puede brindar confianza a las tendencias observadas, pero la falta de detalles técnicos sobre los algoritmos subyacentes utilizados por cada plataforma hace que sea imposible saber si todos son reales. utilizando los mismos algoritmos compartidos bajo el capó.

Muchas plataformas ofrecen medidas vagas de "importancia" o "impresiones" o "Influencia" de aquellos que tuitean sobre un tema dado. Algunos proporcionan al menos definiciones básicas de esos términos, como sumar el número total de seguidores de todos los usuarios que han twitteado sobre un tema determinado. Sin embargo, ninguno de estos enfoques es realmente satisfactorio o significativo en todas las consultas.

Si Donald Trump tuitea su apoyo a un nuevo libro, es probable que su respaldo lleve a la mitad de la población de los EE. UU. A abrazar el libro y la otra mitad a demonizarlo. De manera similar, si Barack Obama tuitea su apoyo a un libro, la reacción probablemente será precisamente inversa a la del respaldo de Trump. En resumen, ambos individuos tienen una base demográfica e ideológica específica a la que tienen gran influencia.

Un comercializador que desea lanzar un nuevo libro de tendencia liberal no puede clasificar a todos los usuarios de Twitter por una puntuación mágica de "influencia" y selección Donald Trump, de la parte superior de la lista, pidió que lo respaldaran ni podían elegir a Barack Obama para que presentara un libro conservador. Tienen que mirar la "demografía de la influencia" de cada usuario.

Pocas plataformas ofrecen puntuaciones de influencia de nivel demográfico como parte de sus pantallas de resumen de rutina.

De hecho, pocas plataformas divulgan cómo calculan la información demográfica Se ofrecen a los usuarios de Twitter, desde la edad hasta la geografía y los niveles de ingreso y educación. La estimación de la ubicación de los tweets no etiquetados geográficamente es una tarea extremadamente difícil y la mayoría de los enfoques más obvios no funcionan .

Por lo tanto, el filtrado de tweets por país de origen es un proceso increíblemente propenso a errores en el mejor de los casos, con resultados inciertos.

En términos más generales, a menudo hay una fuerte división entre los materiales de marketing que promocionan muchas plataformas de análisis de redes sociales y las realidades limitadas de cómo funcionan realmente esas plataformas. . Por ejemplo, las plataformas pueden promocionarse agresivamente como compañías de aprendizaje profundo que aprovechan todo el poder de las redes neuronales para dar sentido a Twitter. En realidad, algunos advierten estas afirmaciones sobre un mayor escrutinio, reconociendo que limitan su uso del aprendizaje profundo a solo unas pocas herramientas especializadas menores y que esas herramientas a su vez se limitan a pequeñas muestras de datos al azar, con la abrumadora mayoría de sus resultados basado en enfoques no neuronales.

En resumen, no confíe en los folletos de mercadotecnia de una empresa: haga las preguntas difíciles acerca de si cada algoritmo que usará es neuronal, no está basado en Bayesiano o simplemente cuenta las palabras.

Para reducir la complejidad computacional de herramientas como nubes de palabras, histogramas de atributos, mapas, análisis de sentimientos personalizados, agrupación y otros análisis de orden superior, algunas empresas limitan sus herramientas de análisis a pequeñas muestras de los datos totales. Si bien la consulta original podría coincidir con más de un cuarto de billón de tweets, la nube de palabras resultante podría basarse solo en los 1,000 tweets más recientes o en una muestra aleatoria de 10,000 tweets, lo que reduce enormemente su cobertura. Algunas plataformas colocan advertencias prominentes en sus interfaces de usuario acerca de este muestreo, mientras que otras entierran estas advertencias profundamente en su documentación técnica.

Al juntar todo esto, la revolución analítica de los medios sociales refleja una tendencia más amplia del mundo del big data: a medida que nos reunimos Archivos de comportamiento humano cada vez mayores, exploramos esos datos a través de algoritmos cada vez más opacos. Recopilamos petabytes de datos a través de estas cajas negras e informamos lo que salió por el otro extremo sin siquiera tener una idea más clara de si los resultados informados son de algún modo precisos o significativos, o cómo su precisión puede variar de una consulta a otra. A su vez, las empresas y los gobiernos toman decisiones económicas y políticas muy reales basadas en números que, para todos los efectos, podrían haber sido simplemente generados por un generador de números aleatorios.

Al final, ¿cómo podemos tomar decisiones significativas sobre las redes sociales? sobre los resultados de los algoritmos de los que no sabemos nada?

">

Las redes sociales se han convertido cada vez más en la lente a través de la cual observamos el mundo humano moderno. A su vez, la vasta industria de las plataformas de análisis de redes sociales se han convertido en los instrumentos a través de los cuales usamos esa lente para dar sentido a la sociedad. Sin embargo, a pesar de que las decisiones gubernamentales y empresariales del mundo real se están tomando en cuenta de sus resultados, sabemos sorprendentemente poco sobre los algoritmos que impulsan la mayoría de estas plataformas, especialmente sus casos de vanguardia y sus matices interpretativos. ¿Cómo podemos tomar decisiones significativas sobre las redes sociales en función de los resultados de algoritmos de los que no sabemos nada?

Casi todas las plataformas de análisis de redes sociales de hoy ofrecen alguna forma de análisis de sentimientos, generalmente una simple puntuación positiva-neutral-negativa, pero también ocasionalmente algunas categorías adicionales más matizadas como alegría o miedo.

Estas puntuaciones de sentimiento se han convertido en un recurso para entender las tendencias sociales, clasificar la reacción a los temas y ayudar a guiar las decisiones de negocios y marketing.

Cálculo de medios sociales sentiment es una tarea extremadamente difícil llena de complejidades.

Lamentablemente, pocas empresas de redes sociales ofrecen detalles técnicos importantes sobre cómo funcionan sus algoritmos de sentimiento, tratándolos como secretos comerciales propietarios. [19659003] Algunos revelan que sus sistemas son contadores de palabras tradicionales "bolsa de palabras" que simplemente tienen dos listas de palabras, una para "positivo" palabras y una para las palabras "negativas" y solo cuente cuántas palabras de un tweet hay en cada lista. Algunos agregan un puntaje a cada palabra que registra lo "positivo" o "negativo", para diferenciar entre "amor" y "me gusta" o "odiar" y "no gustar". Algunos usan algoritmos estadísticos o neuronales más sofisticados. Sin embargo, casi ninguno comparte sus listas de palabras o algoritmos reales.

La visibilidad rudimentaria de los algoritmos de sentimiento se puede encontrar al filtrar solo los tweets positivos o negativos y luego usar la función de histograma de nube de palabras que ofrece la mayoría de las plataformas para ver qué palabras parecen dominar esos tweets Esto puede ayudar a identificar desajustes de vocabulario particularmente evidentes.

Por ejemplo, una herramienta clasificó consistentemente los tweets de baloncesto como sustancialmente más negativos que los tweets de fútbol. El culpable resultó ser el hecho de que muchos tweets de baloncesto en la muestra contenían la palabra "corte" para referirse a la cancha de baloncesto, mientras que el diccionario de opiniones de la herramienta etiquetado como "corte" era una palabra altamente negativa, suponiendo que siempre se refería a una ley legal.

De manera similar, otro análisis mostró que los tweets sobre los republicanos son mucho más positivos que los demócratas porque durante el período de muestra a menudo se hacía referencia a los demócratas como simplemente "demócratas", mientras que a los republicanos se les llamaba constantemente "el partido republicano". la palabra "parte" estaba siendo etiquetada incorrectamente por el algoritmo como una palabra muy positiva.

Los algoritmos de sentimiento de ingeniería inversa de esta manera pueden ayudar a identificar desalineaciones entre los diccionarios del algoritmo y el dominio específico que se está examinando. Algunas plataformas de análisis social permiten a sus usuarios ajustar manualmente los diccionarios de sentimientos aplicados a un análisis dado, apoyando la adaptación de dominios, aunque no todos lo hacen. Tal análisis algorítmico también puede dar pistas sobre la procedencia de su diccionario, con algunas plataformas que utilizan diccionarios de sentimientos de código abierto bien conocidos y ligeramente modificados.

Algunos proporcionan pistas enterradas en su documentación interna del usuario, como señalar que su sistema de sentimientos fue inicialmente capacitado en unos pocos cientos de miles o millones de tweets cuando la empresa se fundó por primera vez y no se ha actualizado desde entonces. De hecho, pocos actualizan sus diccionarios hora a hora en tiempo real para capturar los últimos matices lingüísticos de Twitter.

El uso de un diccionario basado en unos pocos millones de tweets muestreados de hace una década suscita serias preocupaciones sobre cuáles son esos resultados en realidad

La mayoría de los usuarios de la plataforma de análisis de redes sociales no son científicos de datos, lo que significa que probablemente no estén pensando de manera crítica sobre este tipo de preguntas o realizando evaluaciones sistemáticas de los resultados que reciben.

La detección de lenguaje es otra opaca pero de importancia crítica algoritmo cuando se buscan palabras que tienen diferentes significados en diferentes idiomas o que representan el nombre de una marca en un idioma pero una palabra común no relacionada en otro.

A primera vista, puede parecer que es relativamente trivial determinar el idioma de un tweet determinado. . Sin embargo, la pequeña cantidad de texto y la prevalencia de acrónimos y la terminología de la jerga hacen que el contenido de las redes sociales sea especialmente difícil para los algoritmos de detección de idiomas tradicionales. Herramientas como la biblioteca de detección de idiomas de Google Chrome (CLD2) se pueden aplicar fácilmente a los tweets con resultados bastante útiles, pero muchas plataformas de análisis implementan sus propios algoritmos personalizados que se han optimizado para uso social, especialmente Twitter. [19659003] Las bibliotecas ampliamente utilizadas como CLD2 tienen características de rendimiento bien entendidas y una extensa documentación sobre sus casos de borde. Algunos, como CLD2, son completamente de código abierto, lo que permite a los usuarios avanzados comprender de manera precisa cómo llega el algoritmo a sus determinaciones e identificar de manera proactiva los entornos en los que puede tener problemas.

En contraste, pocas empresas de análisis de redes sociales ofrecen mucho en la forma de documentación de sus sistemas propietarios de detección de lenguaje. Muchos se niegan a responder preguntas técnicas específicas, como el tipo de algoritmo y el tamaño y el origen de sus datos de capacitación, ya que tratan dicha información como información comercial patentada.

De manera similar al sentimiento, a veces es posible aplicar la ingeniería inversa de que la "propiedad" de una empresa determinada el algoritmo es en realidad solo una biblioteca estándar como CLD2 con algunos pasos básicos de preprocesamiento de sentido común como eliminar hipervínculos y referencias de @nombre de usuario.

La mayoría de las veces, sin embargo, es simplemente imposible saber cómo funciona el algoritmo de detección de lenguaje de una empresa. 19659003] Confiar en un algoritmo de terceros sin comprender sus matices y casos extremos es extremadamente peligroso a la hora de interpretar los resultados que produce. Si una plataforma analítica informa que los tweets holandeses sobre un tema se han reducido en cinco veces en un período de 24 meses hasta casi cero, ¿significa eso que los holandeses simplemente han dejado de hablar sobre ese tema o podría ser simplemente eso? Las prácticas holandesas de Twitter, desde el uso de la jerga hasta las abreviaturas, han evolucionado de tal manera que el algoritmo de detección de lenguaje de la compañía se está volviendo cada vez menos preciso para detectar el idioma.

Sin información adicional, no hay manera de saber si las tendencias lingüísticas son

La comparación de resultados a través de múltiples compañías de análisis social puede brindar confianza a las tendencias observadas, pero la falta de detalles técnicos sobre los algoritmos subyacentes utilizados por cada plataforma hace que sea imposible saber si todos son reales. utilizando los mismos algoritmos compartidos bajo el capó.

Muchas plataformas ofrecen medidas vagas de "importancia" o "impresiones" o "Influencia" de aquellos que tuitean sobre un tema dado. Algunos proporcionan al menos definiciones básicas de esos términos, como sumar el número total de seguidores de todos los usuarios que han twitteado sobre un tema determinado. Sin embargo, ninguno de estos enfoques es realmente satisfactorio o significativo en todas las consultas.

Si Donald Trump tuitea su apoyo a un nuevo libro, es probable que su respaldo lleve a la mitad de la población de los EE. UU. A abrazar el libro y la otra mitad a demonizarlo. De manera similar, si Barack Obama tuitea su apoyo a un libro, la reacción probablemente será precisamente inversa a la del respaldo de Trump. En resumen, ambos individuos tienen una base demográfica e ideológica específica a la que tienen gran influencia.

Un comercializador que desea lanzar un nuevo libro de tendencia liberal no puede clasificar a todos los usuarios de Twitter por una puntuación mágica de "influencia" y selección Donald Trump, de la parte superior de la lista, pidió que lo respaldaran ni podían elegir a Barack Obama para que presentara un libro conservador. Tienen que mirar la "demografía de la influencia" de cada usuario.

Pocas plataformas ofrecen puntuaciones de influencia de nivel demográfico como parte de sus pantallas de resumen de rutina.

De hecho, pocas plataformas divulgan cómo calculan la información demográfica Se ofrecen a los usuarios de Twitter, desde la edad hasta la geografía y los niveles de ingreso y educación. La estimación de la ubicación de los tweets no etiquetados geográficamente es una tarea extremadamente difícil y la mayoría de los enfoques más obvios no funcionan .

Por lo tanto, el filtrado de tweets por país de origen es un proceso increíblemente propenso a errores en el mejor de los casos, con resultados inciertos.

En términos más generales, a menudo hay una fuerte división entre los materiales de marketing que promocionan muchas plataformas de análisis de redes sociales y las realidades limitadas de cómo funcionan realmente esas plataformas. . Por ejemplo, las plataformas pueden promocionarse agresivamente como compañías de aprendizaje profundo que aprovechan todo el poder de las redes neuronales para dar sentido a Twitter. En realidad, algunos advierten estas afirmaciones sobre un mayor escrutinio, reconociendo que limitan su uso del aprendizaje profundo a solo unas pocas herramientas especializadas menores y que esas herramientas a su vez se limitan a pequeñas muestras de datos al azar, con la abrumadora mayoría de sus resultados basado en enfoques no neuronales.

En resumen, no confíe en los folletos de mercadotecnia de una empresa: haga las preguntas difíciles sobre si cada algoritmo que usará es neuronal, ingenuo bayesiano o simplemente por palabras.

Para reducir La complejidad computacional de herramientas como nubes de palabras, histogramas de atributos, mapas, análisis de sentimientos personalizados, agrupación y otros análisis de orden superior, algunas empresas limitan sus herramientas de análisis a pequeñas muestras de los datos totales. Si bien la consulta original podría coincidir con más de un cuarto de billón de tweets, la nube de palabras resultante podría basarse solo en los 1,000 tweets más recientes o en una muestra aleatoria de 10,000 tweets, lo que reduce enormemente su cobertura. Algunas plataformas colocan advertencias prominentes en sus interfaces de usuario acerca de este muestreo, mientras que otras entierran estas advertencias profundamente en su documentación técnica.

Al juntar todo esto, la revolución analítica de los medios sociales refleja una tendencia más amplia del mundo del big data: a medida que nos reunimos Archivos de comportamiento humano cada vez mayores, exploramos esos datos a través de algoritmos cada vez más opacos. Recopilamos petabytes de datos a través de estas cajas negras e informamos lo que salió por el otro extremo sin siquiera tener una idea más clara de si los resultados informados son de algún modo precisos o significativos, o cómo su precisión puede variar de una consulta a otra. A su vez, las empresas y los gobiernos toman decisiones económicas y políticas muy reales basadas en números que, para todos los efectos, podrían haber sido simplemente generados por un generador de números aleatorios.

Al final, ¿cómo podemos tomar decisiones significativas sobre las redes sociales? ¿Sobre los resultados de los algoritmos de los que no sabemos nada?



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here