Análisis documental sobre el tema del Big Data y su impacto en los derechos humanos

Existen tecnologías disruptivas como la inteligencia artificial y la computación inteligente, manifiestas a través del aprendizaje máquina (Machine Learning) y el aprendizaje profundo (Deep Learning). Mahout es un proyecto de Apache que tiene como objetivo ofrecer un ambiente para la creación rápida de aplicaciones de aprendizaje máquina escalables y eficientes [31]. Mahout ofrece una suite de algoritmos para clustering, categorización, filtrado colaborativo, clasificación y programación evolutiva. Algunas de sus principales aplicaciones prácticas se enmarcan en la realización de clúster de documentos, recomendaciones y organización de contenidos [32]. El machine learning o aprendizaje máquina es el trasfondo principal de Mahout y corresponde a un subcampo de la inteligencia artificial que se centra en el mejoramiento de procesamientos computacionales a partir del análisis de experiencias previas. Grant Ingersoll en [33] presenta una descripción de algunos de los más recientes algoritmos implementados en Mahout, resumiéndolos en la Tabla 3, la cual se presenta a continuación.

Varios trabajos donde se ha tomado Hadoop como base y se ha potencializado algunas de sus características o se ha fusionado con otra herramienta o tecnología. Seguidamente, se presenta un recuento de cinco de los documentos clasificados como raíz del enfoque, la selección de los documentos presentados en este escrito se hace después del análisis por parte de los autores de la totalidad de los documentos raíz e identificando los más relevantes. Revisando los resultados agrupados por país de publicación, se puede ver una concentración en Estados Unidos y China como se aprecia en la Fig. En los países europeos se encuentra un número también significativo de trabajos, mientras que, en Sur América, Oceanía y África, el desarrollo de investigaciones en el campo es aún incipiente. Si bien estos 10 puntos pueden considerarse controvertidos, solo se enuncian por ser parte de las propuestas que, como se indicó previamente, se hacen desde las Naciones Unidas con respecto a los beneficios que pueden resultar de los análisis de los metadatos, sin que sea la intención de este trabajo profundizar en cada uno de ellos.

Estadísticas

De estos instrumentos internacionales surge una parte importante de las obligaciones para los Estados, que «se asientaENT#091;nENT#093; sobre la base de los llamados órganos de tratados o Comités» (Chinchón & Rodríguez, 2018, p. 153). Dichos comités tienen la facultad de emitir decisiones sobre las temáticas que les competen, aunque estas no son legalmente vinculantes. En un mundo globalizado, la incorporación del uso de tecnologías en las distintas sociedades ha tenido una penetración constante. Por una parte, encontramos a los países que poseen riquezas naturales, entre estas minerales raros (litio o coltán, por mencionar algunos) necesarios para la fabricación de herramientas tecnológicas como los teléfonos inteligentes y las computadoras; por otro lado, se encuentran los países productores de tecnología; y, finalmente, tenemos a aquellos países que son solo importadores de tecnologías, entre los cuales se ubican varios países de América Latina. La ventaja de emplear el aprendizaje automático frente a otras técnicas estándar que duran años es que el proceso de identificación puede realizarse en cuestión semanas, con una reducción de costos considerable, sumado a una probabilidad muy alta de éxito.

articulos cientificos de big data

Este tipo de aprendizaje se ha usado en la clasificación de imágenes, por ejemplo, en el estudio de cálculos renales usando un conjunto de datos con imágenes de cálculos en color e infrarrojo23. Sin embargo, se acepta que se trata del “estudio científico de la creación, validación y transformación de datos para crear significado”, es decir, la ciencia que permite extraer valor y conocimiento de los datos. La variedad es otra característica de los datos ma sivos, lo cual hace referencia a las diferentes fuentes y tipos de datos que lo conforman. Por ejemplo, pueden ser archivos de texto o de datos, imágenes, videos, da tos de sistemas de posicionamiento global (GPS), de sensores digitales de equipos (médico, industriales, medidores de electricidad, etc.). Estos pueden regis trar información de posición geográfica, variaciones atmosféricas, cambio de temperatura, velocidad de movimiento, entre muchos otros12.

Indicadores

Por ejemplo, Smith y Smith (2020, 2) afirman que, el diseño futuro de fármacos antivirales SARS-CoV-2, ya está a cargo de un equipo europeo que utiliza el supercomputador de IBM equipado con el sistema AI SUMMIT para ser utilizado en tratamientos por COVID-19. Ante el panorama expuesto, la tecnología ha venido demostrar su valía en ayudar a encontrar y establecer determinados factores relacionados con la COVID-19, bien en establecer su comportamiento molecular y celular, como en la manera de propagarse e infectar a un individuo, entre otros factores. Es por ello que diversos grupos de investigación, instituciones, empresas y gobiernos han planteado iniciativas en pro de buscar soluciones a corto plazo para contener la pandemia generada por el virus, al igual que encontrar un cura contra el mismo. Basada en estos hechos, la COVID-19 ha https://zacatecasonline.com.mx/tendencias/86286-bootcamp-programas-tripleten puesto en la palestra la fragilidad de la humanidad ante un virus que ha demostrado ser altamente resistente y peligroso, con un factor de propagación sin precedente alguno a escala global en tiempos modernos, exponiendo la lasitud del sector sanitario en atender una oleada creciente de infectados que asciende a millones y de víctimas fatales que suma cientos de miles. Aunque se están desarrollando técnicas de diagnóstico más rápidas (Pang, et al., 2020) y terapias y medicamentos antivirales experimentales, quedan desafíos a superar como acelerar los procesos de fabricación y superar los problemas relacionados con la cadena de suministro y abastecimiento (Ledford, 2020). En la exploración se encontró que el termino Big Data ha tenido gran acogida en la comunidad, representado esto en el surgimiento de tecnologías, técnicas y enfoques.

  • Como tecnologías de Big Data se clasifican aquellas que dan soporte a la captura, transformación, procesamiento y análisis de los datos, ya sean estructurados, semiestructurados o no estructurados.
  • No se puede negar que el big data es una herramienta clave, precisamente, para la generación de nuevos saberes en la denominada sociedad del conocimiento, entendida como «aquella donde las interrelaciones que vinculan a los individuos se sustentan a través del acceso y procesamiento de información con el propósito de generar conocimiento, primordialmente, a través de las tecnologías de la información y la comunicación (TICS)» (Ávalos, 2013, p. 5).
  • Bajo estos criterios, entra a formar parte la ciencia de datos empleando técnicas estadísticas y matemáticas caracterizadas en las variables de estudio que permiten ampliar las técnicas y modelos representados como clusters (Mohebi et al., 2016) a través de patrones o correlaciones de datos, que a la vez pueden ser integrados con la IA para mejorar los resultados.
  • Estos pueden regis trar información de posición geográfica, variaciones atmosféricas, cambio de temperatura, velocidad de movimiento, entre muchos otros12.
  • En ese sentido, sostienen que no se contempla el riesgo para los derechos humanos, situación que explican como resultado de una mala interpretación, ya que la publicidad de estos datos que se ponen a disposición de manera abierta puede derivar en muchas ocasiones en que se les dé un uso secundario muy distinto al de la investigación; y que, al combinarlos con otra base de datos, eso puede colocar en situación comprometida a los dueños de dicha información.

El análisis desarrollado, de carácter exploratorio, describe las diferencias en los diseños metodológicos, objetivos o resultados, riesgos, regulaciones, participantes, entre otros elementos que cobran diferentes valoraciones en el entorno de la producción de las estadísticas públicas en comparación al sector empresarial privado. Como consecuencia, estos elementos ofrecen la posibilidad de explorar la valoración de la calidad de los datos que operan en los entornos públicos y privados. Por lo tanto, se requieren técnicas, herramientas y sistemas de modelado de datos especializados para extraer información que sea valiosa para las organizaciones.

Introdução

En la Corte Interamericana de Derechos Humanos, en cuya jurisprudencia abundan los casos sobre el derecho a la vida privada, como el caso de las Masacres de Ituango c. Costa Rica; los temas específicos relacionados a la violación a derechos humanos que se están derivando por el uso de las técnicas de big data aún no presentan pronunciamientos. Se dirigió la búsqueda a aquellos artículos, bootcamp de programación revistas y documentos que contuvieran la palabra big data en el título, en el resumen, en las palabras clave y en el desarrollo del trabajo mismo, y que tuvieran relación con el tema de los derechos humanos, aunque este criterio de búsqueda no apareciera de forma literal en el título, el resumen o en las palabras clave del documento, pero sí en el desarrollo del trabajo.

  • La seguridad y privacidad de los registros médicos son algunas de las inquietudes que surgen en relación al uso de datos personales con otros fines que no sean para lo cual fueron registrados.
  • Sin embargo, ya se encuentran resultados que muestran sus beneficios en aspectos como la reducción de tiempos, optimización de recursos y mayor flexibilidad.
  • Así, por ejemplo, en el ámbito de la genómica, se realizó el estudio de caracterización de los genes conductores de cáncer y mutaciones, donde se identificaron 299 genes conductores con sus respec tivos sitios anatómicos y tipos de cánceres involucrados36.
  • Como resultado, se encontró que la mayoría de las investigaciones bajo estos parámetros centran el análisis en las distintas normas jurídicas en materia de privacidad y protección de datos, tendientes a regular la manera en que se realiza la minería de datos.

Así es como se han identificado patrones predictores de ries go de mortalidad, como también información relevan te como para el pronóstico, diagnóstico y la terapia de niños en cuidados críticos, entre otros30,31. No se puede negar que el big data es una herramienta clave, precisamente, para la generación de nuevos saberes en la denominada sociedad del conocimiento, entendida como «aquella donde las interrelaciones que vinculan a los individuos se sustentan a través del acceso y procesamiento de información con el propósito de generar conocimiento, primordialmente, a través de las tecnologías de la información y la comunicación (TICS)» (Ávalos, 2013, p. 5). Actualmente, los individuos alrededor del mundo pueden ver vulnerados sus derechos humanos a través del manejo indiscriminado de la herramienta big data, ya que la información que se genera día a día y segundo a segundo por medio de los dispositivos tecnológicos -como los teléfonos inteligentes- abarca desde los hábitos de consumo de las personas hasta aspectos de su vida privada, como pueden ser sus creencias religiosas o sus datos biométricos. Así, la vulneración de derechos humanos se puede dar desde la manera en que se generan, almacenan y, en general, se tratan los datos de las personas, quienes en ocasiones desconocen cómo es que se están obteniendo y utilizando sus datos. Con el uso de tecnologías disruptivas como la inteligencia artificial y el Big Data se espera estar mejor preparados para una próxima pandemia, incluso prevenirla. Tecnologías 4.0 como el internet de las cosas, la computación inteligente y la computación en la nube aportarán lo suyo en cuanto al monitoreo permanente de las ciudades en busca de anomalías biológicas y químicas que impliquen algún riesgo para la sociedad o el medio ambiente.

Leave Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.