Por ello, resulta necesario generar información clara y suficiente para que los individuos comprendan cómo el uso de ciertas tecnologías puede afectar sus derechos humanos. Para realizar estudios de IA mediante aprendizaje automático (que incluye el aprendizaje profundo en algunos casos), se requieren de determinados algoritmos, como árboles de decisión, regresión para análisis estadístico y predictivo, redes adversarias generativas, Clustering basado en instancias, bayesianos, redes neuronales, etc. Estos algoritmos se valen de la ciencia de datos en la que se ejecutan diversos cálculos matemáticos, donde la densidad de información es amplia, compleja y variada. Por ejemplo, encontrar moléculas antivirales (Ahuja, Reddy & Marques, 2020) que combatan la COVID-19 e identifiquen millones de anticuerpos para tratamiento de infecciones secundarias (Ciliberto & Cardone, 2020). Con esto en mente, los costos de investigación y desarrollo se reducen ostensiblemente, viéndose reflejados en el valor final del medicamento para el paciente y sector salud en general. Las herramientas a emplear para este tipo de caso son los modelos generativos, que se sustentan en el aprendizaje automático y en el aprendizaje profundo, que permiten trabajar gran cantidad de datos relacionados con la dinámica molecular y propiedades fisicoquímicas de un fármaco, facilitando la identificación de miles de nuevas moléculas candidatas a ser sintetizadas y probadas.
Por último, los Metadatos se refieren a aquella in formación que describe a otros datos, es decir, corres ponden al contenido informativo de algún recurso in formático. Sin importar si se pertenece a uno u otro país, es una realidad que en sociedades como la nuestra se ha incorporado y aumentado el uso de teléfonos, relojes, refrigeradores y televisiones inteligentes, así como de laptops y tabletas. Gracias a estos dispositivos algunas regiones en donde no existía el uso de teléfonos y servicios Bootcamp vs. curso online: por qué los programas de TripleTen son la mejor opción de larga distancia han logrado tener acceso a la Internet, abriendo paso a las bondades y los riesgos que esta tecnología tiene aparejados. Sobre la trasmisión del virus, Yang y Wang (2020, 2710) afirman que, en la revisión de 22 tipos de coronavirus, tanto el SARS-CoV, el MERS-CoV y coronavirus humanos endémicos pueden persistir en superficies inanimadas como metal, vidrio o plástico por hasta nueve días, proporcionando evidencias sólidas de la supervivencia ambiental del patógeno.
Rev. Bioética y Derecho no.50 Barcelona 2020
Los desafíos en el intercambio de información y la privacidad, los dominios de aplicación de Big Data y el conocimiento forman el nivel II, que se concentra en la semántica de alto nivel, las aplicaciones de dominio de conocimiento y los problemas de privacidad del usuario. Big Data se ha convertido en una tendencia a nivel mundial y aunque aún no cuenta con un concepto científico o académico consensuado, se augura cada día mayor crecimiento del mercado que lo envuelve y de las áreas de investigación asociadas. En este artículo se reporta una exploración de literatura sobre Big Data, que comprende un estado del arte de las técnicas y tecnologías asociadas a Big Data, las cuales abarcan captura, procesamiento, análisis y visualización de datos. Se exploran también las características, fortalezas, debilidades y oportunidades de algunas aplicaciones y modelos que incluyen Big Data, principalmente para el soporte al modelado de datos, análisis y minería de datos. Asimismo, se introducen algunas de las tendencias futuras para el desarrollo de Big Data por medio de la definición de aspectos básicos, alcance e importancia de cada una. La metodología empleada para la exploración incluye la aplicación de dos estrategias, una primera corresponde a un análisis cienciométrico; y la segunda, una categorización de documentos por medio de una herramienta web de apoyo a los procesos de revisión literaria.
Bajo este panorama, ha venido tomando fuerza el desarrollo de software de código abierto, donde la inteligencia colectiva es el engranaje principal para obtener un programa de altas prestaciones, multipropósito en la mayoría de los casos. El problema surge en el procedimiento de recolección de las pruebas que se realiza manualmente, a lo que se suma la ingente cantidad de información que se requiere procesar, tales como datos relacionados con la rápida trasmisión, dinámica molecular y celular del virus, trazabilidad acerca de la susceptibilidad poblacional y étnica asociadas con la pandemia, incluso el monitoreo del nivel de riesgo de empleados en una empresa, entre otros aspectos. También se ve la diversidad de planteamientos que presentan los autores en cuanto al concepto de Big Data y las características que este debe atender. Es claro que el tema ha tomado un carácter de moda mundial y que se ha dejado de asociar solo a la característica de gran tamaño. Se ven también posibilidades de explorar la aplicación de Big Data a nuevos dominios de datos, ya que actualmente se han concentrado en social media, medicina, bioinformática y seguridad, principalmente.
La utilidad del Big Data en las estadísticas públicas y empresas privadas
Existe una estrecha relación entre diferentes métodos y tecnologías para la construcción de soluciones que integren las capacidades de cada uno de estos y las potencien en nuevas propuestas. El rol de los gobiernos, como poseedor y publicador de datos públicos con mayor apertura cubriendo la necesidad de los usuarios, fue ampliando el concepto tradicional de la calidad de la estadística. A nivel internacional la utilización de Big Data en Estadísticas Oficiales, se concentra principalmente en el marco de calidad de los macrodatos, siendo de gran importancia realizar comprobaciones de coherencia junto a especialistas temáticos.
- Con respecto a la “Velocidad”, hace referencia a la cantidad de datos que se generan periódicamente y requieren de una infraestructura tecnológica escalable que permita su disponibilidad y acceso en cualquier momento.
- Además, esta herramienta permite clasificar, refinar y analizar de forma ágil los resultados obtenidos a partir de una ecuación de búsqueda, con ello se puede extraer información relevante de la temática de interés que se esté abordando.
- Como consecuencia, estos elementos ofrecen la posibilidad de explorar la valoración de la calidad de los datos que operan en los entornos públicos y privados.
- Bajo este panorama, el sector salud tendrá que incorporar rápidamente estos recursos a su sistema de análisis y diagnóstico, no solo de enfermedades infeccionas sino de cualquier otra, por lo que se espera mejorar el servicio prestado a un paciente o comunidad y preparar a la sociedad ante cualquier eventualidad de pandemia a futuro.
- Sarfaty explica que los esfuerzos del derecho internacional de los derechos humanos se han centrado en el cumplimiento de los tratados más que en la prevención de la vulneración estos derechos (2018, p. 76).
- Una de las principales preocupaciones en el uso de estas nuevas formas de análisis es la privacidad de las personas, como lo advierten Paterson y McDonagh (2018, p. 1); no obstante, hay que considerar que la privacidad no es el único derecho que se puede vulnerar con el uso de la técnica de análisis de big data y sería una equivocación no considerar otras violaciones a los derechos humanos, como lo señala Nersessian (2018, p. 848).
Una plataforma que centraliza esta información es Helpwithcovid, que cuenta con bibliotecas como el Covid Healthcare Coalition, que permite a cientos de miles de investigadores tener acceso a información clave para trabajar con aprendizaje profundo. Es más, aunque no fue un objetivo planteado al inicio de este trabajo, se logró identificar a lo largo del desarrollo del https://zacatecasonline.com.mx/tendencias/86286-bootcamp-programas-tripleten mismo casos concretos del uso del análisis de big data en favor de los derechos humanos. Los sistemas de algoritmos que se emplean en el aprendizaje de las máquinas son frecuentemente opacos y es difícil explicar por qué han tomado determinada dirección pues, al final del día, el diseño del algoritmo recae en un individuo que posee su propia ideología, cultura y ética.
La complementariedad de Big Data y Data Science
En el caso del COVID-19 se han desarrollado diferentes tipos de algoritmos tendientes a la detección temprana de problemas pulmonares, bien a través de imágenes de rayos X (Sánchez, Torres & Martínez, 2020), tomografías o ultrasonido (Fraile, 2020). Las investigaciones en curso basan su desarrollo en la ciencia de datos, debido a que esta proporciona herramientas de análisis que permiten plantear soluciones plausibles bien para lidiar con futuras pandemias como con tratamientos actuales de frente al COVID-19. Por ejemplo, en todo el mundo han surgido comunidades que han creado plataformas que trabajan bajo el modelo de inteligencia colectiva, donde desarrolladores, científicos de datos, investigadores, médicos, entre otros voluntarios, formulan proyectos relacionados con la COVID-19.