Publicaciones

El fracaso de la sensórica en las ciudades

Publicado en 29 julio, 2019

De acuerdo con el informe «Cisco Industry Survey 2017» (CISCO, 2017), un 75% de los proyectos IoT finalizan en fracaso, siendo la causa más común (en un 65% de los casos), la subestimación de la complejidad de construir y desplegar un sistema de este tipo. Dentro de las múltiples causas que generan esta complejidad, en ENVIRA IoT hemos seleccionado la más habitualmente subestimada: la sensórica, y la hemos estudiado a fondo haciendo uso de nuestro laboratorio de electrónica y calibración acreditado ENAC. El objetivo final de la presentación es arrojar algo más de luz, a nivel de divulgación, a las interioridades de la parte más desconocida de los proyectos Smart, para conocer qué esperar y cómo manejar apropiadamente las «cajas negras que llegan de China».

Introducción

De acuerdo con el informe publicado por la consultora Lux Research (Lux, 2016), para el año 2020 se espera que las ciudades inteligentes despliguen cerca de un trillón de sensores. Esta previsión es considerada por (Zeine, 2017), en su artículo “The problems with Smart Cities” para la revista Forbes, como el primer problema para el éxito de los proyectos Smart City a nivel global.

Mas allá del reto evidente que supone la alimentación de este ingente número de sensores (tanto por la cantidad de energía demandada como por la complejidad en su suministro), se presenta el desafío de cómo obtener provecho para las ciudades de los datos generados por tal numero de sensores. ¿Se desarrollarán nuevos servicios, o se modificarán los existentes basándose en la información obtenida?  Seguramente, sí. De hecho, ese es el objetivo.

En este nuevo modelo de ciudades orientadas a los datos, Zeine centra el segundo gran problema de las Smart Cities del futuro: “la agregación de cantidades masivas de datos puede establecer algunas verdades (la causa de determinados problemas) sobre el funcionamiento de las ciudades, lo que puede conducir a diferentes interpretaciones sobre las metricas que determinan la calidad de vida en una ciudad”. Su conclusión es la importancia de líderes y empleados públicos capaces de defender la veracidad y conveniencia de los datos aportados para el diseño de los servicios, así como de su interpretación de estos.

¿Pero que sucede si, independientemente del criterio de interpretación que se utilice, éste se aplica sobre datos inciertos? No solamente el servicio público sobre el que se decide puede verse severamente afectado, sino también la credibilidad del criterio de interpretación elegido y, con ello, la del propio líder o empleado público que lo ha defendido.

Y este problema no es baladí, puesto que es importante recordar que la obtención de estos conjuntos masivos de datos requerirá desplegar, para el 2020, una cantidad aproximada de un trillón de sensores. La inversión necesaria para llevar a cabo dicho despliegue e integración de sensores no parece menor. Salvo las más grandes metrópolis a nivel mundial, la viabilidad económica de este tipo de proyectos pasa por la utilización masiva de sensores de bajo coste. En el caso español, la totalidad de los diferentes proyectos de Smart City licitados bajo los diferentes programas de Red.es o de los programas DUSI de cada ciudad, incluyen exclusivamente sensores de bajo coste (sensores cuyas mediciones no están avaladas por ningún organismo oficial de certificación de acuerdo con normativas europeas).

Problemas con sensores

El informe (EEA, 2018) sobre calidad de aire y contaminación de la Agencia Europea de Medio Ambiente, evalúa los resultados del proyecto “2013 Air Implementation Pilot”, para el estudio de las políticas ambientales en 10 ciudades europeas, con un capítulo especial para la monitorización ambiental basada en sensórica de bajo coste.

Los resultados mas relevantes en esta materia indican que (sic):

  • Los micro-sensores y/o las mini-estaciones de monitorización han presentado recurrentes problemas técnicos relacionados con la alimentación, el almacenamiento, la transmisión y adquisición de datos y su interpretación.
  • Cinco de cada diez ciudades que han utilizado estos sistemas, no han cambiado sus políticas de información ambiental. Y, tres de ellas, identifican como un reto la explotación de la información proprocioanda por estos nuevos canales.
  • A pesar de que el uso de sensores de bajo coste para monitorización ambiental se considera, generalmente, como una buena prácica para incrementar la conciencia ambiental y para la monitorización en determinados casos de uso, se expresa la preocupación de la escasa fiabilidad de los datos medidos por dichos sistemas.
  • Se identifica explícitamente como uno de los mayores retos en este ámbito la dificultad de conciliar las medidas realizadas por las redes de bajo coste con aquellas adquiridas por los equipos de monitorización ambiental certificados.

La Organización Meteorológica Internacional y la agencia de Naciones Unidas, UN Environment, en su informe (Alastair et al., 2018) han analizado en profundidad la viabilidad de este tipo de sensores low-cost para la sensorización ambiental. En sus conclusiones se refleja (sic.):

  • Los sensores de bajo coste no pueden ser reemplazo para los sistemas de monitorización convencionales, aunque sí son un complemento ideal para los mismos.
  • Existe una elevada variablidad en la calidad de los resultados obtenidos para un mismo tipo de sensor dependiendo del fabricante y de la aproximación llevada a cabo para la extracción y gestión de las señales generadas.
  • Incluso cuando se utilizan los mismos sub-componentes sensores, la calidad de los dispositivos de diferentes fabricantes puede variar enormemente dependiendo de las técnicas de calibración y corrección de la señal.
  • Todos los sensores de bajo coste requieren una calibración de algún tipo y todos ellos sufren perdida de precisión con el tiempo, necesitando un mantenimiento y re-calibración apropiados.

Este mismo informe, en sus recomendaciones para usuarios y operadores de redes de sensores de bajo coste incuyen: “Es necesaria la caracterización de los sensores de bajo coste (LCS) contra instrumentación de referencia (laboratorio), con el objeto de identificar cambios en la respuesta del sensor como resultado de interferencias, cambios en las condiciones ambientales, etc.”

Aseguramiento de la fiabilidad de los datos

Existen diferentes variables que, conjuntamente, permiten medir el grado de fiabilidad de los datos capturados por un sensor. Estas variables dependerán generalmente del tipo de sensor, las métricas que esperan capturar y el entorno en que deben operar. Por ejemplo, la calidad de un sensor de ruido para una biblioteca se medirá de acuerdo a parámetros completamente diferentes que un sensor de ruido para un taller industrial. En el primer caso, la sensibilidad será la variable más relevante, siendo en el segundo la estabilidad en la medición o bien, la precisión en caso de que los ruidos vayan a ser analizados posteriormente con objeto de, por ejemplo, llevar a cabo un mantenimiento predictivo de las máquinas.

Algunas de las variables habitualmente utilizadas para valorar la calidad y fiabilidad de un sensor son, entre otras:

  • La precisión del sensor, que se define como el error máximo esperado respecto a la magnitud real.
  • La exactitud indica, ante una medida conocida de referencia, cuánto se acerca el dato obtenido por el sensor, a la misma.
  • La sensibilidad define la exposición mínima a una variable que debe tener el sensor para que pueda detectar una variación en la medida. La sensibilidad está relacionada con la escala de medición.
  • La repetibilidad define la capacidad de un sensor de realizar la misma medida, ante magnitudes físicas con el mismo valor real, en diferentes momentos del tiempo.
  • La estabilidad de la medición, indica la capacidad del sensor de realizar una misma medición, ante magnitudes físicas con el mismo valor real, en diferentes condiciones ambientales (presión, temperatura, humedad, contaminantes, etc.)
  • La linealidad es la desviación entre la salida del sensor y el desplazamiento real (error) que se mide.

Además de estas variables, en función del sensor y el tipo de medición esperada, podrían considerarse otros indicadores relevantes como la frecuencia de muestreo o incluso, el coste de cada medición. En cualquier caso, la fiabilidad de los datos nunca es sinónimo directo de precisión. Existen innumerables casos de uso en los cuales la precisión no es relevante, pero muy pocos (o ninguno), en los que la fiabilidad no sea determinante para el éxito a largo plazo del proyecto.

Los informes reseñados en los apartados anteriores ponen de relevancia la importancia clave que tiene la calibración y posterior tratamiento adecuado de la señal generada por los elementos sensores para asegurar la fiabilidad de los datos obtenidos.

Aunque aún quedan, a día de hoy, fabricantes de sensórica no calibrada, existe una elevada oferta de sensores de bajo coste pre-calibrados. Este tipo de sensores, usualmente etiquetados por el fabricante o distribuidor como “calibrados” (o “certificado de calibración”), en realidad no lo son tanto, puesto que se trata de sistemas de calibración genéricos para cada familia de productos.

Es importante reseñar este punto, puesto que este sistema de calibración no es representativo y ofrece escasas garantías sobre la fiabilidad del sensor (lógicamente superiores a la de los sensores no calibrados).

En referencia a este sistema, existen dos políticas generalmente establecidas para la planificación de proyectos de sensorización de Smart Cities:

  • Demanda de sensores asegurados mediante certificado del fabricante. En este caso, se da por válida una certificación genérica emitida por el fabricante, que se aplica a todos sus sensores en el mercado. Esta política, tiene la ventaja de su coste reducido. Su principal inconveniente es la alta imprecisión y escasa fiabilidad de los sensores instalados, debido a las impurezas y las diferencias en la composición de cada elemento sensor. Es decir, cada “sensor real” representa siempre, debido a las variaciones propias de los materiales de los que está compuesto, diferencias mas o menos sustanciales respecto al “sensor ideal” utilizado como patrón por el fabricante.
  • Certificación individualizada o por muestreo. Implica la demanda de un informe o certificado individualizado por cada sensor (o para un número aleatorio de sensores de un mismo lote, si se trata de un número excesivamente elevado de unidades). Esta política permite cumplir plenamente con las recomendaciones de la WMO, pues implica “caracterizar cada sensor con instrumental de referencia”. Aunque los sensores tratados mediante este sistema siguen encajando en la gama de “bajo coste”, su coste total de adquisición (TCO) es sensiblemente superior, requiriendo un mantenimiento periódico para la corrección de desviaciones provocadas por la degradación de los elementos físicos de medida (reactivos, resistencias, etc).

Demostración experimental

Con el fin de ilustrar las diferencias entre los dos métodos expuestos para la validación de los datos capturados por una red de sensores de bajo coste (LCS), se han llevado a cabo dos experimentos utilizando algunos de los sensores más habitualmente desplegados en los proyectos de Smart Cities.

Experimento 1: Comparación de sensores “iguales”

Este primer experimento tiene como objeto cuantificar las diferencias de comportamiento existentes entre dos elementos sensores de un mismo fabricante, modelo, gama e incluso del mismo lote.

Para ello, se han tomado cuatro (4) celdas electroquímicas (elemento sensor de bajo coste), a priori exactamente iguales, para la monitorización del gas H2S.

Se ha elegido el gas H2S a propósito por un motivo: este gas, medido en partes por millón (p.p.m), es detectado fácilmente por su mal olor; sin embargo, las concentraciones menores (en p.p.b) son imperceptibles para el ser humano. El valor añadido de este sensor está precisamente en este nivel de precisión: detectar los malos olores antes de que se produzcan, con el fin de poder evitarlos.

El experimento consiste en medir el voltaje generado por cada una de ellas (la medición realizada), para concentraciones del gas fijadas de antemano: 16.04, 159.28, 399.63, 538.79 partes por billon (ppb) en cada caso. Los cuatro equipos realizan la medida de forma simultánea, en la misma cámara de gases, en le mismo momento del tiempo y bajo las mismas condiciones ambientales.

Este primer experimento, ha sido realizado en un laboratorio de calibración certificado ENAC, utilizando instrumentos de medición, calibración, aire 0 y span de referencia.

LCS y equipos de instrumentación y calibración de referencia

Figura. 1. LCS y equipos de instrumentación y calibración de referencia

Los resultados obtenidos para las cuatro concentraciones del gas predefinidas se resumen en la siguiente imagen:

Cuadro resumen de resultados del experimento 1

Figura. 2 Cuadro resumen de resultados del experimento 1

Como se puede apreciar, existe una alta dispersión en las mediciones provocada por las variaciones naturales que existen en los materiales que generan las reacciones químicas en el interior de la celda. Las causas de estas diferencias entre un sensor y otro, a priori idénticos, son múltiples: impurezas, morfología, diferentes condiciones de almacenamiento, etc.

Interpretación de resultados del experimento 1

Figura. 3 Interpretación de resultados del experimento 1

Como se puede ver en la tabla de la Figura. 3, el error esperado para la medición de concentraciones a niveles de precisión de partes por billón (p.p.b) del gas, es tan elevado que hace directamente inviable el uso de sensores calibrados por el fabricante para este tipo de gases.

Incluso, como se puede deducir de los datos expuestos en la Figura. 3, aun haciendo calibraciones agregadas para todos los sensores de un mismo lote, la alta variabilidad en el comportamiento de los equipos (alrededor de 30 µV), garantiza que, dado que en el espacio de mediciones entre los 399,63 ppbs y los 538,79 ppbs (un espacio donde “caben” 139,61 ppbs) solamente hay 100 µV, habrá solapamientos entre las medidas en función del equipo que realice las mismas.

Experimento 2: Efecto de las condiciones ambientales

El objetivo del segundo experimento es ilustrar la relevancia que tienen, en un elemento sensor, las condiciones ambientales a las que está expuesto.

En el caso de los sensores de gases, está demostrada la interferencia que determinados gases producen sobre otros. Por ejemplo, el NO2 y el O3 (Ozono), son gases que se interfieren constantemente. Incluso las estaciones de referencia para la monitorización ambiental sufren estos problemas en sus mediciones (incluso cuando disponen de sistemas específicos para el muestreo, filtrado y acondicionamiento de la muestra).

Sin embargo, cualquier otro tipo de sensor, por tratarse de un elemento químico, mecánico y/o electrónico, está afectado directa o indirectamente por las condiciones del exterior: elementos contaminantes, temperatura, humedad, corrosión, sal en el ambiente, presión atmosférica, etc.

Para este segundo experimento, el sensor utilizado es una galga extensiométrica: un sensor muy simple utilizado frecuentemente en la medición de distancias o fuerzas de precisión con aplicaciones en la medición de agarre de robots industriales, grietas en edificación, monitorización de maquinaria, pesaje, etc. Se trata únicamente de un elemento extensible, cuyo valor de resistividad eléctrica varía en función de la longitud que alcanza.

Utilizando una cámara atmosférica, se han tomado diferentes mediciones del mismo sensor, con exactamente la misma longitud, pero variando la temperatura ambiental. La gráfica de la Figura. 4, muestra el detalle de los resultados obtenidos.

Sensor, cámara atmosférica y resultados del experimento

Figura. 4 Sensor, cámara atmosférica y resultados del experimento

En este caso, se puede apreciar una desviación de 0,05 mm en la medición para un rango de temperaturas de uso habitual del sensor (12ºC a 45ºC). En determinadas aplicaciones, el error podría ser asumible; por ejemplo, en la medición de la evolución de una grieta en un edificio público, pero en otras podría no serlo tanto: por ejemplo, si esa misma grieta afecta a un fresco romano que está pintado encima.

Conclusiones

Si las ciudades inteligentes son aquellas que se basan en la información para la generación de nuevos modelos de servicio público, adaptados a las necesidades de los ciudadanos, entonces la veracidad de los datos manejados es vital para el éxito del modelo. Las constantes promesas comerciales de sensores de bajo coste, la aparente facilidad de instalación y uso indicada por el fabricante y su propia naturaleza hardware (todo el mundo confía más en la fiabilidad de un dispositivo físico que de un software) los relega, en los proyectos de Smart City, a la partida de suministro, como cualquier otro equipamiento electrónico (ordenadores, televisores o cámaras de vídeo), cuando aún, con la tecnología existente hoy en día, distan mucho de poder ser considerados como bienes de consumo general. No es viable adquirir e instalar sensores sin un tratamiento especializado de los mismos para su configuración, calibración y mantenimiento. Al menos no, si el objetivo es la obtención de datos reales.

Ángel Retamar Arias, Director IoT, ENVIRA IoT.

Verónica Corrales Berros, Ingeniero de Electrónica, ENVIRA IoT.

Referencias

  • Agencia Europea de Medio Ambiente, 2018. Europe’s urban air quality — re-assessing implementation challenges in cities. EEA Report No 24/2018. ISSN 1977-8449.
  • Alastair C. Lewis, Erika von Schneidemesser and Richard E. Peltier, 2018. Low-cost sensors for the measurement of atmospheric composition: overview of topic and future applications. ISBN 978-92-63-11215-6
  • Cisco Industry Survey, 2017. CISCO Executive Business Insights. 2017.
  • Zeine, H., 2017. The problems with Smart Cities. Forbes Technology Council, Ene 2017.
  • http://www.luxresearchinc.com/news-and-events/press-releases/read/power-savings-lead-four-top-areas-sensors-innovation (Marzo, 2019)