Más artículos sobre Big Data

Ante el panorama expuesto, la tecnología ha venido demostrar su valía en ayudar a encontrar y establecer determinados factores relacionados con la COVID-19, bien en establecer su comportamiento molecular y celular, como en la manera de propagarse e infectar a un individuo, entre otros factores. Es por ello que diversos grupos de investigación, instituciones, https://elheraldodesaltillo.mx/2023/12/18/quieres-conseguir-el-trabajo-de-tus-suenos-estudia-un-bootcamp-de-programacion-en-linea/ empresas y gobiernos han planteado iniciativas en pro de buscar soluciones a corto plazo para contener la pandemia generada por el virus, al igual que encontrar un cura contra el mismo. Varios trabajos donde se ha tomado Hadoop como base y se ha potencializado algunas de sus características o se ha fusionado con otra herramienta o tecnología.

articulos cientificos de big data

A su vez, el acceso y procesamiento de dicha información sirve como una nueva manera de extraer ganancias y de aumentar la “vigilancia” de poblaciones a través la creciente interconexión de bases de datos y técnicas de análisis. El crecimiento de los datos, como la explosión de las redes móviles, la computación ¿Quieres conseguir el trabajo de tus sueños? Estudia un bootcamp de programación en línea en la nube y las nuevas tecnologías son descritas en [12]. Esto ha dado un aumento al incomprensible mundo de la información, que se suele describir como Big Data. Este informe captura los puntos de vista recogidos durante un evento de exploración de temas de Big Data e inferencia de software.

La complementariedad de Big Data y Data Science

El desarrollo de marcos de código abierto tales como Hadoop (y, más recientemente, Spark) sería esencial para el crecimiento del big data, pues estos hacían que el big data resultase más fácil de usar y más barato de almacenar. Los usuarios continúan generando enormes cantidades de datos, pero ahora los humanos no son los únicos que lo hacen. Por supuesto, esto no agotan los dilemas que se han erigido sobre la relación entre política y redes sociales.

  • La aplicación de nuevos sistemas para la creación, almacenamiento y difusión de la información ha tenido como uno de los factores clave el exponencial desarrollo de la apertura de datos a través de mecanismos técnicos y computacionales.
  • Este proceso se puede repetir varias veces para disminuir la probabilidad de identificación de cualquier individuo cuyos datos reales están en la base de datos.
  • Hemos realizado unos hallazgos clínicos en los cuales correlacionamos la acústica (el llanto) con la actividad cerebral del bebé a través de electroencefalograma y de tecnología NIRS (siglas de espectroscopia del infrarrojo cercano).
  • Si Big Data es la materia prima, entonces su valor radica en la información y estructura que contiene.
  • Con esto en mente, se muestra la correspondencia entre las tecnologías disruptivas y la información crítica, creando sinergias que permiten elaborar sistemas más avanzados de estudio y análisis facilitando la obtención de datos relevantes para la toma de decisiones sanitarias.

Mientras que la red Facebook, ante los reiterados cuestionamientos a la venta de espacios publicitarios que permitió la difusión de información por parte de cuentas falsas, ha ido en la dirección de bloquear las entradas que hasta ahora habían tenido los investigadores. En el futuro, cabe esperar que surjan nuevas regulaciones que demanden transparencia y que permitan desarrollar investigaciones serias y con fines netamente académicos. Sin embargo, dada la posición monopólica de muchas de estas plataformas, no es del todo clara la capacidad que tendrán los investigadores de acceder a información relevante.

Rev. Bioética y Derecho  no.50 Barcelona  2020

Aprendizaje máquina es un área de investigación bastante reconocida en las ciencias de la computación, principalmente comprende el descubrimiento de modelos, patrones y regularidades en los datos [37]. Los primeros trabajan aprendizaje inductivo de descripciones simbólicas, mientras que los segundos se centran en los métodos de reconocimiento de patrones o en la estadística. En los últimos años, el uso del aprendizaje máquina se ha extendido con rapidez [38], se ven aplicaciones en dominios como detección de fraudes, sistemas de recomendación [39], detección de spam [40], predicciones financieras [41], comercio y mercadeo [42], [43], entre otros. Como mencionamos anteriormente, gran parte de la capacidad analítica desarrollada en los últimos años ha ocurrido en el seno de grandes empresas, plataformas que operan como intermediarios que registran y producen los grandes volúmenes de datos.

articulos cientificos de big data

Los sistemas de algoritmos que se emplean en el aprendizaje de las máquinas son frecuentemente opacos y es difícil explicar por qué han tomado determinada dirección pues, al final del día, el diseño del algoritmo recae en un individuo que posee su propia ideología, cultura y ética. Sin embargo, cada vez se ponen en práctica más medidas para conocer el grado de influencia de los algoritmos y estas permiten una mayor transparencia en los reportes que acompañan el sistema de decisiones del análisis de los grandes cúmulos de datos (Mauracciole, 2018, p. 281). Es necesario tener en cuenta que se debe probar la utilidad de las herramientas que vigilan tanto la manera en que se procesan los datos como los resultados que estos arrojan (Datta, Sen & Zick, 2017, p. 72). Otro problema con el análisis de big data es que debido a que los datos se obtienen de distintas fuentes, no hay claridad sobre el propósito predefinido para su recolección, lo que hace que la información que se pudo haber recogido con un propósito sea utilizada de modo muy distinto al momento en que se somete al análisis con posterioridad por parte de quienes los recolectan (Günther, 2017, p. 195). Un ejemplo de esto se verá más adelante con la sentencia Schrems ante el Tribunal de Justicia de la Unión Europea.

Desafíos de big data

Para realizar estudios de IA mediante aprendizaje automático (que incluye el aprendizaje profundo en algunos casos), se requieren de determinados algoritmos, como árboles de decisión, regresión para análisis estadístico y predictivo, redes adversarias generativas, Clustering basado en instancias, bayesianos, redes neuronales, etc. Estos algoritmos se valen de la ciencia de datos en la que se ejecutan diversos cálculos matemáticos, donde la densidad de información es amplia, compleja y variada. Por ejemplo, encontrar moléculas antivirales (Ahuja, Reddy & Marques, 2020) que combatan la COVID-19 e identifiquen millones de anticuerpos para tratamiento de infecciones secundarias (Ciliberto & Cardone, 2020).

  • Se basa en ciertas arquitecturas de redes neuronales, que le permiten jerarquizar la información (visual, auditiva y escrita) mediante una segmentación de patrones categorizados por niveles.
  • El análisis de datos es tan viejo como la humanidad misma y por ende es tierra de nadie y de todos.
  • Para ello, se utilizan herramientas como la inteligencia artificial con el objetivo de procesar y analizar los datos obtenidos para predecir y anticipar los eventos futuros de esa manera (Paterson & Maeve, 2018, p. 3).
  • Un hecho significante que señalan Paterson y Maeve es que los programas de inteligencia artificial «aprenden de los datos para poder reconocer inteligentemente nuevos datos y adaptarlos de conformidad a lo aprendido» (2018, p. 3).
  • Con lo anterior, se ratifica que existen numerosos vacíos conceptuales y tecnológicos en los cuales se pueden plantear trabajos investigativos y prácticos.
  • Las Naciones Unidas ya ha considerado los macrodatos para contribuir al desarrollo sostenible a través de su proyecto «Construyendo nuestro futuro juntos», en el cual contempla el uso de los macrodatos para el desarrollo sostenible.