Resumen
El mapa de uso y cobertura del suelo del valle agrícola del VIRCH (Valle Inferior del Río Chubut) fue generado por el Laboratorio EcoFluvial (IPEEC-CONICET) en colaboración con el IPCSH-CONICET, UNPSJB e INTA. El mismo representa 10 clases de uso y cobertura del suelo (Agua, Arbustal, Corrales, Construido, Invernaderos, Hortalizas, Frutales, Pasturas y Pasturas degradadas) para el año 2019 con una resolución de 10 x 10 m. La precisión global del mapa es de 85%. Para su elaboración se utilizaron imágenes satelitales Sentinel-2 para las fechas 12/09/2018, 12/10/2018, 31/12/2018, 25/01/2019, 26/03/2019, 20/04/2019. Los datos de campo fueron recolectados entre junio del 2018 y marzo del 2019. El algoritmo de clasificación que se utilizó fue creado por este grupo de trabajo y publicado en Trujillo et al. (2022) y mejorado por Liberoff et al (en revisión). El proceso de elaboración y validación del mapa involucró la participación social de distintos sectores mediante entrevistas, encuentros y talleres.
Métodos
La clasificación de UyCS se realizó mediante el algoritmo SatRed v.2. SatRed es un modelo basado en redes neuronales para la clasificación del uso y cobertura del suelo utilizando imágenes satelitales (Trujillo-Jiménez et al. 2022). Este modelo cuenta con 4 capas secuenciales densamente conectadas. SatRed v.2 incorpora el post-procesamiento de las imágenes clasificadas con el fin de producir un efecto de parcelas más homogéneas y eliminar píxeles aislados que generan el efecto conocido como “sal y pimienta”. Este proceso utiliza parámetros específicos para cada cobertura de UyCS que deben ser revisados para cada caso particular y que son invocados por SatRed v.2 a través de una tabla en formato de valores separados por coma (.csv). El algoritmo de SatRed v.2 y todos los parámetros asociados al modelado de UyCS considerados en este trabajo se encuentran disponibles en https://github.com/aletrujim/SatRed/tree/main/satred2. El modelo de clasificación se entrenó en una máquina virtual patrocinada por Microsoft Azure 2, con el sistema operativo Windows Server 2016 Datacenter, de tamaño NC6 estándar (6 vCPUs [Intel Xeon CPU E5-2690 v3 2,60 GHz], con 56 GB de memoria RAM y un coprocesador GPU NVIDIA Tesla K80). Para incorporar el post-procesamiento se utilizaron los modelos pre-entrenados en la máquina virtual pero se corrieron en un equipo local con sistema operativo Fedora Linux 36 (Intel Core i7-4765T 2 Ghz, con 32 GB y un coprocesador GPU NVIDIA GeForce GTX 1660 Super). Los algoritmos se implementaron utilizando el lenguaje de programación Python. Como datos de entrada del algoritmo SatRed v.2 se utilizaron datos de campo e imágenes satelitales multi-espectrales y multi-temporales. En distintas etapas del proceso de generación y validación del mapa se incorporó conocimiento local, mediante entrevistas, encuentros y talleres que habilitaron procesos de intercambio de saberes y experiencias. Con respecto a las imágenes satelitales, se utilizaron tres teselas (T19GGM, T19GG y T20GLT) de Sentinel-2 para las fechas 12/09/2018, 12/10/2018, 31/12/2018, 25/01/2019, 26/03/2019, 20/04/2019. Las imágenes se descargaron de forma gratuita de la plataforma Copernicus. Se descartaron las tres bandas espectrales que proporcionan datos correspondientes a la atmósfera y sus componentes (Banda 1-aerosol/costero, Banda 9-vapor de agua y Banda 10 - cirros). Las seis bandas espectrales que tienen 20 m de resolución espacial (Bandas 5, 6 y 7- vegetation red edge; Banda 8A- narrow NIR y Bandas 11 y 12- SWIR 1 y 2) se re-muestrearon a 10 m y se combinaron con las cuatro bandas espectrales de 10 m (Banda 2- Azul, Banda 3- Verde, Banda 4-Rojo y Banda 8-NIR). De esta manera se generó un archivo multi-capas de 10 bandas espectrales con 10 m de resolución espacial para cada una de las teselas, un mosaico con los tres archivos multi-capas y posteriormente un recorte del área de estudio. Finalmente se generó un archivo de bandas apiladas multi-espectral y multi-temporal que combinó las 60 bandas espectrales correspondientes a las 6 fechas utilizadas. Todo el procesamiento de las imágenes se llevó a cabo utilizando software gratuito de SIG (QGIS v 3.4). Para reunir los datos necesarios para entrenar y validar la clasificación, se realizaron salidas de campo en junio, julio, agosto, septiembre, noviembre y diciembre del 2018, y en enero, febrero y marzo del 2019. En estas salidas, se tomaron fotos georreferenciadas en lugares representativos de las categorías definidas y se registró para cada foto el tipo de uso/cobertura del suelo. Las fotos georreferenciadas se utilizaron para generar un archivo vectorial de puntos, a partir de los cuales se generaron manualmente polígonos que encierran un área correspondiente a alguna de las categorías de UyCS. Para complementar la información de campo, se utilizaron imágenes de alta resolución de Google Earth a partir de las cuales se digitalizaron polígonos correspondientes a UyCS fáciles de identificar (por ejemplo, construcciones, agua, invernaderos). Finalmente, las capas vectoriales de polígonos fueron convertidas a capas ráster con el mismo tamaño (filas y columnas) y la misma resolución espacial (10 m) que las imágenes Sentinel-2 MSI utilizadas, ya que este es un requerimiento para la clasificación con el algoritmo SatRed. El conjunto de datos de campo se dividió al azar en dos sub-sets (entrenamiento 80% y evaluación 20%). Esta división al azar se realizó 6 veces de manera de obtener 6 versiones del modelo. El mapa final fue confeccionado utilizando el valor más frecuente para cada pixel (moda, n=6). La Precisión global del mapa final es 85%, la Exhaustividad 83% y el índice F1 84%.