Humanos más listos que Google

Si eres capaz de elegir un número entre el 1 y el 100 al azar tienes muchas más probabilidades que Google de dar en el clavo. El Big Data tiene una gran cantidad de problemas que muchos todavía no conocen y la cantidad de errores en las predicciones de estos centros de datos a menudo deben ser corregidas por humanos.

No es la primera vez que vemos un caso similar, hace unos días el filtro anti-spam de Facebook estaba eliminando cuentas por 3 palabras totalmente inofensivas y las veces en las que se le obligó a Google predecir algo el resultado ha sido bastante malo.

Google no sirve para predecirlo todo

La última vez que se le preguntó a Google qué enfermedades afectarían a la población de Estados Unidos en las próximas semanas no todo fue como se esperaba. GFT (Google Flu Trends) o “Tendencias de Influencia de Google” quizás sea donde más falla su algoritmo porque obtiene datos no estructurados desde entradas de blogs y publicaciones en redes sociales, algo que nos aclaran muy bien en el BBC Mundo.

Estos datos son muy diferentes a los que se obtienen de forma estructurada en los hospitales y consultorios del país de forma lenta pero mucho menos fiables. En 108 semanas el algoritmo de Google se equivocó 100 veces. Algunas veces calculaba el doble de casos y otras muy inferior pero desde luego las predicciones no eran lo suyo.

Ahora bien, esto no quiere decir que el Big Data sea algo inútil, las empresas aprovechan esta maraña de datos para ver cómo le va a su marca y modificar su estrategia en función de ello, el problema es creer que el Big Data sirve para predecir todo tipo de cosas útiles.

Google todavía no tiene todas las respuestas

No hay nada como datos limpios y estables para hacer un análisis. Esto significa que, además, Google no va a recoger los mismos datos hoy, mañana o el mes pasado. Google altera los algoritmos constantemente lo que todavía añade todavía más inestabilidad al asunto.

Los datos del Big Data siempre se acaban contaminando de alguna forma por lo que asumir que hay fallas en el Big Data es la mejor forma de proceder a analizarlos y para dar resultados más precisos habría que analizar antes la información y sanearla para que luego el Big Data hiciese el proceso de una forma más natural. Y sí, aquí existe un problema mayor, la gente cada vez es menos propensa a dar sus datos por lo que acaban usando datos erróneos en Internet lo que todavía agrava más el asunto.

Los datos a día de hoy son más baratos que nunca

Antes de probar y embarcarse en el Big Data hay que argumentar por qué uno quiere iniciarse en este mundo y no iniciarse en algo que va a fracasar, que no va a producir un beneficio para nadie. No es lo mismo analizar tarjetas de crédito que el rendimiento de un equipo de fútbol, para una cosa se necesita analizar algo de forma rápida y para la otra se necesitan semanas, no siempre el Big Data es necesario ya que los resultados en tiempo real terminan siendo muy costosos y, en muchos casos, incorrectos.

    COMENTARIOS