Detección profunda de falsificaciones y clasificación mediante error
HogarHogar > Blog > Detección profunda de falsificaciones y clasificación mediante error

Detección profunda de falsificaciones y clasificación mediante error

Jul 18, 2023

Scientific Reports volumen 13, Número de artículo: 7422 (2023) Citar este artículo

1607 Accesos

3 Altmetric

Detalles de métricas

Debido a la amplia disponibilidad de contenido de fácil acceso en las redes sociales, junto con las herramientas avanzadas y la infraestructura informática económica, ha sido muy fácil para las personas producir falsificaciones profundas que pueden provocar la difusión de desinformación y engaños. Este rápido avance puede causar pánico y caos, ya que cualquiera puede crear fácilmente propaganda utilizando estas tecnologías. Por lo tanto, un sistema sólido para diferenciar entre contenido real y falso se ha vuelto crucial en esta era de las redes sociales. Este artículo propone un método automatizado para clasificar imágenes falsas profundas empleando metodologías basadas en Deep Learning y Machine Learning. Los sistemas tradicionales basados ​​en Machine Learning (ML) que emplean la extracción de características artesanales no logran capturar patrones más complejos que no se entienden bien o se representan fácilmente usando características simples. Estos sistemas no pueden generalizar bien a datos no vistos. Además, estos sistemas son sensibles al ruido oa variaciones en los datos, lo que puede reducir su rendimiento. Por lo tanto, estos problemas pueden limitar su utilidad en aplicaciones del mundo real donde los datos evolucionan constantemente. El marco propuesto inicialmente realiza un análisis de nivel de error de la imagen para determinar si la imagen ha sido modificada. Luego, esta imagen se suministra a las redes neuronales convolucionales para la extracción profunda de características. Los vectores de características resultantes se clasifican luego a través de Support Vector Machines y K-Nearest Neighbors mediante la optimización de hiperparámetros. El método propuesto logró la precisión más alta del 89,5 % a través de la red residual y el vecino más cercano K. Los resultados prueban la eficiencia y robustez de la técnica propuesta; por lo tanto, se puede utilizar para detectar imágenes falsas profundas y reducir la amenaza potencial de calumnias y propaganda.

En la última década, el contenido de las redes sociales, como fotografías y películas, creció exponencialmente en línea debido a dispositivos económicos como teléfonos inteligentes, cámaras y computadoras. El auge de las aplicaciones de redes sociales ha permitido a las personas compartir rápidamente este contenido en las plataformas, aumentando drásticamente el contenido en línea y brindando un fácil acceso. Al mismo tiempo, hemos visto un enorme progreso en algoritmos complejos pero eficientes de aprendizaje automático (ML) y aprendizaje profundo (DL) que se pueden implementar para manipular contenido audiovisual para difundir información errónea y dañar la reputación de las personas en línea. Ahora vivimos en tiempos en los que la difusión de desinformación se puede usar fácilmente para influir en las opiniones de las personas y se puede usar en la manipulación electoral o la difamación de cualquier individuo. La creación de deep fake ha evolucionado dramáticamente en los últimos años, y podría usarse para difundir desinformación en todo el mundo, lo que pronto representaría una seria amenaza. Las falsificaciones profundas son contenido de audio y video sintetizado generado a través de algoritmos de IA. El uso de videos como evidencia en disputas legales y casos judiciales penales es una práctica estándar. Se debe establecer la autenticidad e integridad de cualquier video presentado como prueba. Especialmente cuando la generación de deep fake se vuelve más compleja, se anticipa que esto se convertirá en una tarea difícil.

Existen las siguientes categorías de videos falsos profundos: intercambio de rostros, síntesis y manipulación de rasgos faciales. En las falsificaciones profundas con intercambio de caras, la cara de una persona se intercambia con la de la persona de origen para crear un video falso para apuntar a una persona por las actividades que no ha cometido1, lo que puede empañar la reputación de la persona2. En otro tipo de deep fake llamado sincronización de labios, los labios de la persona objetivo se manipulan para alterar los movimientos de acuerdo con una determinada pista de audio. El propósito de la sincronización de labios es simular la voz del atacante de la víctima haciendo que alguien hable con esa voz. Con el maestro de marionetas, las falsificaciones profundas se producen imitando las expresiones faciales, los movimientos de los ojos y los movimientos de la cabeza del objetivo. Usando perfiles ficticios, esto se hace para propagar información falsa en las redes sociales. Por último, pero no menos importante, se utilizan falsificaciones profundas de audio o clonación de voz para manipular la voz de una persona que asocia algo con el hablante que no ha dicho en realidad1,3.

Por lo tanto, ha aumentado la importancia de descubrir la verdad en el ámbito digital. Lidiar con falsificaciones profundas es significativamente más difícil porque se utilizan principalmente para objetivos dañinos y prácticamente cualquiera puede ahora producir falsificaciones profundas utilizando las herramientas ya disponibles. Hasta ahora se han puesto en marcha muchas estrategias diferentes para encontrar falsificaciones profundas. Dado que la mayoría también se basa en el aprendizaje profundo, se ha desarrollado un conflicto entre las aplicaciones de aprendizaje profundo malas y buenas4. Por lo tanto, para resolver este problema, la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA) lanzó un plan de investigación forense de medios para desarrollar métodos de detección de medios digitales falsos5. Además, en colaboración con Microsoft, Facebook también anunció un desafío de detección de falsificaciones profundas basado en IA para evitar que se utilicen falsificaciones profundas para engañar a los espectadores6.

En los últimos años, varios investigadores han explorado las áreas de Machine Learning y Deep Learning (DL) para detectar falsificaciones profundas de medios audiovisuales. Los algoritmos basados ​​en ML utilizan una extracción de características manual errónea y laboriosa antes de la fase de clasificación. Como resultado, el rendimiento de estos sistemas es inestable cuando se trata de bases de datos más grandes. Sin embargo, los algoritmos de DL realizan automáticamente estas tareas, que han demostrado ser tremendamente útiles en varias aplicaciones, incluida la detección profunda de falsificaciones. La red neuronal convolucional (CNN), uno de los modelos de DL más destacados, se usa con frecuencia debido a su rendimiento de última generación que extrae automáticamente características de bajo y alto nivel de la base de datos. Por lo tanto, estos métodos han atraído el interés de los investigadores en científicos de todo el mundo7.

A pesar de la investigación sustancial sobre el tema de la detección de falsificaciones profundas, siempre hay potencial de mejora en términos de eficiencia y eficacia. Cabe señalar que las técnicas de generación de deep fake están mejorando rápidamente, lo que da como resultado conjuntos de datos cada vez más desafiantes en los que las técnicas anteriores pueden no funcionar de manera efectiva. La motivación detrás del desarrollo de sistemas automatizados de detección de falsificación profunda basados ​​en DL es mitigar el daño potencial causado por la tecnología de falsificación profunda. El contenido falso profundo puede engañar y manipular a las personas, lo que puede tener consecuencias graves, como disturbios políticos, fraude financiero y daños a la reputación. El desarrollo de tales sistemas puede tener impactos positivos significativos en varias industrias y campos. Estos sistemas también mejoran la confianza y la confiabilidad de los medios y el contenido en línea. A medida que la tecnología deep fake se vuelve más sofisticada y accesible, es importante contar con herramientas confiables para distinguir entre contenido real y falso. Por lo tanto, desarrollar un sistema robusto para detectar falsificaciones profundas de los medios se ha vuelto muy necesario en esta era de las redes sociales. Este artículo es una continuación del estudio proporcionado por Rimsha et al.8. El artículo compara el rendimiento de arquitecturas CNN como AlexNet y VGG16 para detectar si la imagen es real o ha sido alterada digitalmente. Las principales contribuciones de este estudio son las siguientes:

En este estudio, proponemos un nuevo método de clasificación y detección de falsificación profunda que emplea métodos basados ​​en DL y ML.

El marco propuesto preprocesa la imagen redimensionándola de acuerdo con la capa de entrada de CNN y luego realiza un análisis de nivel de error para encontrar cualquier manipulación digital a nivel de píxel.

La imagen ELA resultante se suministra a redes neuronales convolucionales, es decir, GoogLeNet, ResNet18 y SqueezeNet, para una extracción profunda de funciones.

Se llevan a cabo extensos experimentos para encontrar la configuración óptima de hiperparámetros mediante el ajuste de hiperparámetros.

El rendimiento de la técnica propuesta se evalúa en el conjunto de datos disponible públicamente para la detección profunda de falsificaciones

La primera falsificación profunda se desarrolló en 1860, cuando un retrato del líder sureño John Calhoun fue alterado por expertos para la propaganda al cambiar su cabeza por la del presidente de los EE. UU. Estas manipulaciones generalmente se realizan empalmando, pintando y copiando y moviendo los elementos dentro o entre dos fotos. A continuación, se utilizan los procesos de posprocesamiento apropiados para mejorar el atractivo visual, la escala y la coherencia de la perspectiva. Estos pasos incluyen el escalado, la rotación y la modificación del color9,10. Una gama de procedimientos automatizados para la manipulación digital con coherencia semántica mejorada ahora está disponible además de estos métodos convencionales de manipulación debido a los desarrollos en gráficos por computadora y técnicas ML/DL. Las modificaciones en los medios digitales se han vuelto relativamente asequibles debido al software ampliamente disponible para desarrollar dicho contenido. La manipulación en los medios digitales está aumentando a un ritmo muy rápido, lo que requiere el desarrollo de dichos algoritmos para detectar y analizar de manera sólida dicho contenido para encontrar la diferencia entre lo correcto y lo incorrecto11,12,13.

A pesar de ser una tecnología relativamente nueva, el deep fake ha sido tema de investigación. En los últimos años, ha habido un aumento considerable de artículos falsificados profundos hacia fines de 2020. Debido a la llegada de técnicas basadas en ML y DL, muchos investigadores han desarrollado algoritmos automatizados para detectar falsificaciones profundas de contenido audiovisual. Estas técnicas han ayudado a descubrir fácilmente el contenido real y el falso. El aprendizaje profundo es bien conocido por su capacidad para representar datos complicados y de gran dimensión11,14. Matern et al.15 emplearon falsificaciones profundas detectadas del conjunto de datos de Face Forensics utilizando un perceptrón multicapa (MLP) con un AUC de 0,85. Sin embargo, el estudio solo considera imágenes faciales con los ojos abiertos. Agarwal et al.16 extrajeron características utilizando el kit de herramientas Open Face 2 y realizaron la clasificación a través de SVM. El sistema obtuvo 93% AUC; sin embargo, el sistema proporciona resultados incorrectos cuando una persona no está frente a la cámara. Los autores de Ciftci et al.17 extrajeron las características de las señales médicas y realizaron la clasificación a través de CNN con un 97 % de precisión. Sin embargo, el sistema es computacionalmente complejo debido a un vector de características muy grande. En su estudio, Yang et al.18 extrajeron puntos de referencia faciales 68-D usando DLib y clasificaron estas características a través de SVM. El sistema obtuvo 89% ROC. Sin embargo, el sistema no es robusto a desdibujado y requiere una etapa de preprocesamiento. Rossle et al.19 emplearon SVM + CNN para la clasificación de características y una matriz de Co-Ocurrencia para la extracción de características. El sistema logró una precisión del 90,29 % en el conjunto de datos de Face Forensics. Sin embargo, el sistema proporciona malos resultados en videos comprimidos. McCloskey et al.20 desarrollaron un detector de falsificación profunda utilizando la disimilitud de colores entre la cámara real y las muestras de imágenes reales y sintetizadas. El clasificador SVM fue entrenado en características basadas en colores de las muestras de entrada. Sin embargo, el sistema puede tener problemas con imágenes borrosas y no preprocesadas.

Un marco de aprendizaje híbrido multitarea con un optimizador Fire Hawk para la detección de noticias falsas en árabe tiene como objetivo abordar el problema de la identificación de noticias falsas en el idioma árabe. El estudio propone un enfoque híbrido que aprovecha el poder de múltiples tareas para detectar noticias falsas de manera más precisa y eficiente. El marco utiliza una combinación de tres tareas, a saber, clasificación de oraciones, detección de postura y predicción de relevancia, para determinar la autenticidad del artículo de noticias. El estudio también sugiere el uso del algoritmo Fire Hawk Optimizer, un algoritmo de optimización inspirado en la naturaleza, para ajustar los parámetros del marco. Esto ayuda a mejorar la precisión del modelo y lograr un mejor rendimiento. Fire Hawk Optimizer es un algoritmo eficiente y robusto inspirado en el comportamiento de caza de los halcones. Utiliza una estrategia de búsqueda global y local para buscar la solución óptima21. Los autores en22 proponen una arquitectura de transformador de visión por convolución (CVT) que se diferencia de la CNN en que se basa en una combinación de mecanismos de atención y operaciones de convolución, lo que la hace más eficaz para reconocer patrones dentro de las imágenes. atención y capas de perceptrón multicapa (MLP). La capa de autoatención aprende a enfocarse en regiones críticas de la imagen de entrada sin necesidad de operaciones de convolución, mientras que la capa MLP ayuda a extraer características de estas regiones. Las características extraídas luego se envían a la capa de salida para tomar la decisión de clasificación final. Sin embargo, el sistema es computacionalmente costoso debido a la arquitectura profunda. Guarnera et al.23 identificaron imágenes falsas profundas utilizando Expectation Maximization para extraer características y SVM, KNN, LDA como métodos de clasificación. Sin embargo, el sistema falla al reconocer las imágenes comprimidas. Nguyen et al.24 propusieron una arquitectura basada en CNN para detectar contenido falso profundo y obtuvieron una precisión del 83,7 % en el conjunto de datos de Face Forensics. Sin embargo, el sistema no puede generalizar bien en casos no vistos. Khalil et al.25 emplearon patrones binarios locales (LBP) para la extracción de funciones y CNN y Capsule Network para la detección profunda de falsificaciones. Los modelos se entrenaron en el conjunto de datos Deep Fake Detection Challenge-Preview y se probaron en los conjuntos de datos DFDC-Preview y Celeb-DF. Un enfoque de falsificación profunda desarrollado por Afchar et al.26 empleó MesoInception-4 y logró una tasa de verdaderos positivos del 81,3 % a través del conjunto de datos Face Forensics.

Sin embargo, el sistema requiere preprocesamiento antes de la extracción y clasificación de características. Por lo tanto, da como resultado un rendimiento general bajo en videos de baja calidad. Wang et al.27 evaluaron el rendimiento de Residual Networks en la clasificación de falsificaciones profundas. Los autores emplearon ResNet y ResNeXt, en videos del conjunto de datos forenses de Face. En otro estudio realizado por Stehouwer et al.28, los autores presentaron un enfoque basado en CNN para la detección profunda de contenido falso que logró una precisión general del 99 % en Diverse Fake Face Dataset. Sin embargo, el sistema es computacionalmente costoso debido a un vector de características de tamaño muy grande. A pesar del progreso significativo, los algoritmos DL existentes son computacionalmente costosos de entrenar y requieren GPU de alta gama o hardware especializado. Esto puede dificultar que los investigadores y las organizaciones con recursos limitados desarrollen e implementen modelos de aprendizaje profundo. Además, algunos de los algoritmos DL existentes son propensos al sobreajuste, lo que ocurre cuando el modelo se vuelve demasiado complejo y aprende a memorizar los datos de entrenamiento en lugar de aprender patrones generalizables. Esto puede dar como resultado un rendimiento deficiente en datos nuevos e invisibles. Las limitaciones en las metodologías actuales demuestran que todavía existe la necesidad de desarrollar un método de clasificación y detección de falsificación profunda robusto y eficiente utilizando enfoques basados ​​en ML y DL.

Esta sección analiza el flujo de trabajo propuesto empleado para la detección de falsificaciones profundas. El diagrama de flujo de trabajo de nuestro marco propuesto se ilustra en la Fig. 1. El sistema propuesto consta de tres pasos principales (i) preprocesamiento de imágenes al cambiar el tamaño de la imagen de acuerdo con la capa de entrada de CNN y luego generar un análisis de nivel de error de la imagen para determinar las alteraciones del nivel de píxeles (ii) extracción profunda de características a través de arquitecturas CNN (iii) clasificación a través de SVM y KNN mediante la optimización de hiperparámetros.

Diagrama de flujo de trabajo del método propuesto.

El análisis de nivel de error, también conocido como ELA, es una técnica forense utilizada para identificar segmentos de imágenes con niveles de compresión variables. Al medir estos niveles de compresión, el método determina si una imagen se ha sometido a edición digital. Esta técnica funciona mejor en imágenes .JPG, ya que en ese caso, todos los píxeles de la imagen deberían tener aproximadamente los mismos niveles de compresión y pueden variar en caso de manipulación29,30.

JPEG (Joint Photographic Experts Group) es una técnica para la compresión con pérdida de imágenes digitales. Un algoritmo de compresión de datos descarta (pierde) algunos de los datos para comprimirlos. El nivel de compresión podría usarse como un compromiso aceptable entre el tamaño de la imagen y la calidad de la imagen. Normalmente, la relación de compresión JPEG es 10:1. La técnica JPEG utiliza cuadrículas de imágenes de 8 × 8 píxeles comprimidas de forma independiente. Cualquier matriz de más de 8 × 8 es más difícil de manipular teóricamente o no es compatible con el hardware, mientras que las matrices de menos de 8 × 8 carecen de información suficiente.

En consecuencia, las imágenes comprimidas son de mala calidad. Todas las cuadrículas de 8 × 8 para imágenes inalteradas deben tener el mismo nivel de error, lo que permite volver a guardar la imagen. Dado que las fallas distribuidas uniformemente se encuentran en toda la imagen, cada cuadrado debería deteriorarse aproximadamente al mismo ritmo. La cuadrícula alterada en una imagen modificada debería tener un mayor potencial de error que el resto31.

ELA. La imagen se vuelve a guardar con una tasa de error del 95 % y se calcula la diferencia entre las dos imágenes. Esta técnica determina si hay algún cambio en las celdas comprobando si los píxeles están en sus mínimos locales8,32. Esto ayuda a determinar si hay alguna manipulación digital en la base de datos. El ELA se calcula en nuestra base de datos, como se muestra en la Fig. 2.

Resultado de ELA en imágenes de conjuntos de datos.

El descubrimiento de CNN aumentó su popularidad entre los académicos y los motivó a trabajar en problemas difíciles a los que antes se habían dado por vencidos. Los investigadores han diseñado varios diseños de CNN en los últimos años para hacer frente a múltiples desafíos en varios campos de investigación, incluida la detección profunda de falsificaciones. La arquitectura general de CNN, como se muestra en la Fig. 3, generalmente se compone de muchas capas apiladas una encima de la otra. La arquitectura de CNN consta de un módulo de extracción de características compuesto por capas convolucionales para aprender las características y las capas de agrupación reducen la dimensionalidad de la imagen. En segundo lugar, consiste en un módulo que comprende una capa totalmente conectada (FC) para clasificar una imagen33,34.

Arquitectura general de la CNN.

La imagen se ingresa utilizando la capa de entrada que se transmite a la convolución para la extracción profunda de características. Esta capa aprende las características visuales de la imagen conservando la relación entre sus píxeles. Este cálculo matemático se realiza en una matriz de imagen utilizando un filtro/núcleo del tamaño especificado35. La capa de agrupación máxima reduce las dimensiones de la imagen. Este proceso ayuda a aumentar la velocidad de entrenamiento y reduce la carga computacional para las siguientes etapas36. Algunas redes pueden incluir capas de normalización, es decir, normalización por lotes o capa de abandono. La capa de normalización de lotes estabiliza el rendimiento del entrenamiento de la red al realizar operaciones de estandarización en la entrada de mini lotes. Mientras que la capa de abandono elimina aleatoriamente algunos nodos para reducir la complejidad de la red, lo que aumenta el rendimiento de la red37,38. Las últimas capas de la CNN incluyen una capa FC con una función de probabilidad softmax. La capa FC almacena todas las características extraídas de las fases anteriores. Estas características luego se suministran a los clasificadores para la clasificación de imágenes38. Dado que las arquitecturas de CNN pueden extraer funciones significativas sin intervención humana, en este estudio utilizamos CNN preentrenadas como GoogLeNet39, ResNet1831 y SqueezeNet40. Cabe señalar que desarrollar y entrenar una arquitectura de aprendizaje profundo desde cero no solo es una tarea que requiere mucho tiempo, sino que también requiere recursos para el cálculo; por lo tanto, utilizamos arquitecturas CNN preentrenadas como extractores de características profundas en nuestro marco propuesto.

Microsoft introdujo la arquitectura Residual Network (ResNet) en 2015 que consta de varias capas de convolución de tamaño de kernel 3 × 3, una capa FC seguida de una capa softmax adicional para la clasificación. Debido a que utilizan conexiones de acceso directo que saltan uno o más niveles, las redes residuales son eficientes y de bajo costo computacional41. En lugar de anticipar que cada pila de capas coincidirá instantáneamente con un mapeo subyacente específico, las capas se ajustan a un mapeo residual. Como resultado de la adición de las salidas resultantes a las de las capas apiladas, estas conexiones rápidas reducen la pérdida de valor durante el entrenamiento. Esta funcionalidad también ayuda a entrenar el algoritmo considerablemente más rápido que las CNN convencionales.

Además, este mapeo no tiene parámetros porque transfiere la salida a la siguiente capa. La arquitectura ResNet superó a otras CNN al lograr la tasa de error más baja del 5 % en un trabajo de clasificación, que es del 3,57 %31,42. La arquitectura de ResNet50 se muestra en la Fig. 443.

Arquitectura ResNet1844.

SqueezNet fue desarrollado por investigadores de UC Berkeley y la Universidad de Stanford y es una arquitectura muy liviana y pequeña. Las arquitecturas de CNN más pequeñas son útiles ya que requieren menos comunicación entre servidores en el entrenamiento distribuido. Además, estas CNN también entrenan más rápido y requieren menos memoria, por lo que no son computacionalmente costosas en comparación con las CNN profundas convencionales. Al modificar la arquitectura, los investigadores afirman que SqueezeNet puede lograr la precisión del nivel de AlexNet a través de un CNN45 más pequeño. Debido a que un filtro de 1 × 1 contiene 9 × menos parámetros que un filtro de 3 × 3, los filtros de 3 × 3 en estas modificaciones han sido reemplazados por filtros de 1 × 1. Además, la cantidad de canales de entrada se reduce a 3 × 3 filtros a través de capas comprimidas, lo que reduce la cantidad total de parámetros.

Por último, pero no menos importante, la reducción de muestreo se lleva a cabo muy tarde en la red, por lo que los grandes mapas de activación de las capas de convolución aumentan la precisión de la clasificación40. Desarrollada por investigadores de Google, GoogLeNet es una red neuronal convolucional profunda de 22 capas que utiliza un tamaño de filtro de convolución de 1 × 1, agrupación promedio global y un tamaño de entrada de 224 × 224 × 3. La arquitectura de GoogLeNet se muestra en la Fig. 5. Para aumentar la profundidad de la arquitectura de la red, el tamaño del filtro de convolución se reduce a 1 × 1. Además, la red utiliza la agrupación promedio global hacia el final de la arquitectura, que ingresa un mapa de características de 7 × 7 y lo promedia a 1 × 1 mapa de características. Esto ayuda a reducir los parámetros entrenables y mejora el rendimiento del sistema. También se utiliza una regularización de abandono de 0,7 en la arquitectura, y las características se almacenan en una capa FC39.

Arquitectura GoogLeNet46.

Las CNN extraen características de las imágenes de forma jerárquica mediante capas convolucionales, de agrupación y totalmente conectadas. Las funciones extraídas por las CNN se pueden clasificar en términos generales en dos categorías: funciones de bajo nivel y funciones de alto nivel. Las características de bajo nivel incluyen bordes, esquinas y variaciones de intensidad. Las CNN pueden detectar bordes convolucionando la imagen de entrada con un filtro que resalta los bordes de la imagen. También pueden detectar esquinas convolucionando la imagen de entrada con un filtro que resalta las esquinas. Además, las CNN pueden extraer características de color convolucionando la imagen de entrada con filtros que resaltan colores específicos. Por otro lado, las características de alto nivel incluyen textura, objetos y características contextuales y jerárquicas. Las texturas de las imágenes se detectan convolucionando la imagen de entrada con filtros que resaltan diferentes texturas. Las CNN detectan objetos convolucionando la imagen de entrada con filtros que resaltan diferentes formas. Mientras que las características contextuales se extraen considerando las relaciones entre diferentes objetos en la imagen. Finalmente, las CNN pueden aprender a extraer características jerárquicas apilando varias capas convolucionales una encima de la otra. Las capas inferiores extraen características de bajo nivel, mientras que las capas superiores extraen características de alto nivel.

Clasificamos las características profundas de CNN a través de clasificadores SVM y KNN en esta fase. KNN ha ganado mucha popularidad en la comunidad de investigación en tareas de clasificación y regresión, ya que supera a muchos otros clasificadores existentes debido a su simplicidad y robustez. KNN calcula la distancia entre una muestra de prueba (k) con sus vecinos y luego agrupa la muestra de prueba k con su vecino más cercano. El clasificador KNN se muestra en la Fig. 6

KNN.

El segundo clasificador utilizado en este estudio es SVM, un clasificador muy popular que se utiliza con frecuencia en muchos campos de investigación debido a sus velocidades más rápidas y resultados de predicción superiores, incluso en un conjunto de datos mínimo. El clasificador encuentra el plano con el mayor margen que separa las dos clases. Cuanto más amplio es el margen, mejor es el rendimiento de clasificación del clasificador30,47. La figura 7A muestra hiperplanos potenciales para un problema de clasificación particular, mientras que la figura 7B muestra el mejor hiperplano determinado por SVM para ese problema.

Posibles hiperplanos SVM30.

Este estudio utiliza un conjunto de datos de acceso público compilado por el Laboratorio de Fotografía e Inteligencia Computacional de la Universidad de Yonsei. La base de datos de rostros reales y falsos del Laboratorio de Fotografía e Inteligencia Computacional de la Universidad de Yonsei es un conjunto de datos que contiene imágenes de rostros humanos reales y falsos. El conjunto de datos se diseñó para su uso en la investigación y el desarrollo de sistemas de verificación y reconocimiento facial, en particular aquellos diseñados para detectar imágenes falsas o manipuladas. Cada imagen del conjunto de datos está etiquetada como real o falsa, y el conjunto de datos también incluye información adicional sobre la imagen, como la edad, el sexo y el origen étnico del sujeto, así como la técnica de manipulación utilizada para las imágenes falsas. Además, las imágenes contienen rostros diferentes, divididos por los ojos, la nariz, la boca o el rostro completo. Las imágenes manipuladas se subdividen en tres categorías: imágenes fáciles, intermedias y difíciles, como se muestra en la Fig. 848.

Muestras de imágenes del conjunto de datos que muestran imágenes reales y editadas.

Las métricas de evaluación se utilizan en el aprendizaje automático para medir el rendimiento de un modelo. Los modelos de aprendizaje automático están diseñados para aprender de los datos y hacer predicciones o decisiones basadas en esos datos. Es importante evaluar el rendimiento de un modelo para comprender su rendimiento y realizar las mejoras necesarias. Una de las técnicas más utilizadas es una matriz de confusión, una tabla para evaluar el rendimiento de un modelo de clasificación comparando las clases reales y predichas para un conjunto de datos de prueba. Es una matriz de cuatro valores: verdaderos positivos (TP), falsos positivos (FP), verdaderos negativos (TN) y falsos negativos (FN). El marco propuesto se evalúa utilizando exactitud, precisión, recuperación y puntaje f1. Aunque la precisión es una métrica ampliamente utilizada, es adecuada en el caso de un conjunto de datos equilibrado; por lo tanto, también evaluamos nuestros métodos propuestos utilizando F1-Score que combina tanto el recuerdo como la precisión en una sola métrica. Todas las métricas de evaluación que utilizamos para evaluar nuestros modelos se calculan a partir de la ecuación. (1) a la ecuación. (4).

Los crecientes problemas con las falsificaciones profundas han hecho que los investigadores se interesen más en el análisis forense de los medios en los últimos años. La tecnología deep fake tiene varias aplicaciones en el sector de los medios, incluida la sincronización de labios, el intercambio de rostros y el envejecimiento de los humanos. Si bien los avances en DL y la tecnología de falsificación profunda tienen varias aplicaciones beneficiosas en los negocios, el entretenimiento y la industria cinematográfica, pueden cumplir objetivos dañinos y contribuir a la incapacidad de las personas para creer lo que es verdad49,50. Por lo tanto, encontrar la diferencia entre lo real y lo falso se ha vuelto vital en esta era de las redes sociales. Encontrar contenido falso profundo a través del ojo humano se ha vuelto más difícil debido al progreso en las tecnologías de creación de falsificación profunda. Por lo tanto, se debe desarrollar un sistema robusto para clasificar con precisión estos medios falsos sin intervención humana.

En este estudio, proponemos una arquitectura novedosa y robusta para detectar y clasificar imágenes falsas profundas utilizando técnicas basadas en ML y DL. El marco propuesto emplea un enfoque de preprocesamiento para encontrar ELA. ELA ayuda a encontrar si alguna parte de la imagen ha sido alterada mediante el análisis de la imagen a nivel de píxeles. Luego, estas imágenes se envían a arquitecturas CNN profundas (SqueezeNet, ResNet18 y GoogLeNet) para extraer características profundas. Luego, las características profundas se clasifican a través de SVM y KNN. Los resultados obtenidos de la matriz de confusión de ResNet y los clasificadores de ML se muestran en la Fig. 9. El vector de características logró la mayor precisión del 89,5 % a través de KNN. Probamos nuestros diversos hiperparámetros para ambos clasificadores antes de llegar a la conclusión. El método propuesto logró una precisión del 89,5 % a través de KNN en la correlación como una métrica de distancia y un total de 881 vecinos. SVM logró una precisión del 88,6 % en Gaussian Kernel con una escala de 2,3.

Resultados obtenidos de la matriz de confusión de ResNet18.

La optimización de hiperparámetros es el proceso de seleccionar el mejor conjunto de hiperparámetros para algoritmos automatizados. La optimización es crucial para los modelos porque el rendimiento del modelo depende de la elección de los hiperparámetros. Optimizamos parámetros como funciones del kernel, escala, no. de vecinos, métricas de distancia, etc., para KNN y SVM. Los resultados obtenidos de las mejores configuraciones paramétricas para diferentes vectores de características se destacan en negrita y se muestran en la Tabla 1. Las matrices de confusión de (a) SVM y (b) KNN se ilustran en la Fig. 10.

Matriz de confusión de ResNet18 a través de (a) SVM, (b) KNN.

Además, el vector de características obtenido de GoogLeNet obtuvo la precisión más alta del 81 % a través de KNN en Chebyshev como una métrica de distancia con un número total de 154 vecinos. El SVM clasificó el vector de características con una precisión del 80,9 % en el núcleo gaussiano con una escala de núcleo de 0,41. Las métricas probadas y óptimas (resaltadas en negrita) se mencionan en la Tabla 2. Los resultados detallados en otras métricas de evaluación se mencionan en la Fig. 11, mientras que la Fig. 12 muestra sus matrices de confusión.

Resultados de GoogLeNet en términos de ACC, PRE, REC y F1-Score.

Matriz de confusión obtenida de GoogLeNet.

SVM y KNN clasificaron el vector de funciones de SqueezeNet en un 69,4 % y un 68,8 %, respectivamente. Los clasificadores fueron evaluados en diferentes parámetros, como se menciona en la Tabla 3 y lograron el máximo rendimiento en los parámetros resaltados en negrita. Los resultados en exactitud, precisión, recuperación y puntuación f1 se mencionan en la Fig. 13. La matriz de confusión se muestra en la Fig. 14.

Resultados obtenidos de las matrices de confusión de SqueezeNet.

Matriz de confusión obtenida de SqueezeNet.

Este artículo propone una arquitectura novedosa para detectar y clasificar imágenes falsas profundas a través de técnicas basadas en DL y ML. El marco propuesto inicialmente preprocesa la imagen para generar ELA, lo que ayuda a determinar si la imagen ha sido manipulada digitalmente. La imagen ELA resultante luego se alimenta a las arquitecturas CNN como GoogLeNet, ResNet18 y ShuffleNet para una extracción profunda de funciones. A continuación, la clasificación se realiza a través de SVM y KNN. El método propuesto logró la máxima precisión del 89,5 % a través de ResNet18 y KNN. Las redes residuales son muy eficientes y livianas y funcionan mucho mejor que muchos otros clasificadores tradicionales debido a sus sólidas técnicas de clasificación y extracción de características. La comparación detallada se muestra en la Tabla 4. Mittal et al.51 emplearon Alex Net para la detección de falsificaciones profundas. Sin embargo, el estudio resultó en un desempeño muy pobre. Chandani et al.50 utilizaron un marco de red residual para detectar imágenes falsas profundas. Asimismo, MLP y Meso Inception 4 de Matern et al.15 y Afchar et al.26 obtuvieron una precisión superior al 80% respectivamente. A pesar de ser una CNN profunda, Residual Networks funciona mucho más rápido debido a sus conexiones de acceso directo, lo que también ayuda a mejorar el rendimiento del sistema. Por lo tanto, el método propuesto funcionó mucho mejor con las funciones extraídas de ResNet18.

La falsificación profunda es una nueva técnica ampliamente utilizada para difundir desinformación y engaños entre la gente. Aunque no todos los contenidos falsos profundos son malévolos, es necesario encontrarlos porque algunos amenazan al mundo. El objetivo principal de esta investigación fue descubrir un método confiable para identificar imágenes falsas profundas. Muchos investigadores han estado trabajando incansablemente para detectar contenido falso profundo utilizando una variedad de enfoques. Sin embargo, la importancia de este estudio radica en el uso de métodos basados ​​en DL y ML para obtener buenos resultados. Este estudio presenta un marco novedoso para detectar y clasificar imágenes falsas profundas con mayor precisión que muchos sistemas existentes. El método propuesto emplea ELA para preprocesar imágenes y detectar manipulación a nivel de píxeles. Las imágenes generadas por ELA se envían luego a las CNN para la extracción de características. Estas características profundas finalmente se clasifican utilizando SVM y KNN. La técnica propuesta logró la máxima precisión del 89,5 % a través del vector de características y el clasificador SVM de ResNet18. Los resultados prueban la robustez del método propuesto; por lo tanto, el sistema puede detectar imágenes falsas profundas en tiempo real. Sin embargo, el método propuesto se desarrolla utilizando datos basados ​​en imágenes. En el futuro, investigaremos varias otras arquitecturas de CNN en conjuntos de datos falsos profundos basados ​​en video. También pretendemos adquirir un conjunto de datos falsos profundos de la vida real de las personas de nuestra comunidad y utilizar técnicas de ML y DL para distinguir entre imágenes falsas profundas e imágenes normales para que sean más útiles y sólidas. Vale la pena mencionar que el trabajo innovador tendrá una influencia significativa en nuestra sociedad. Usando esta tecnología, las víctimas falsas pueden evaluar rápidamente si las imágenes son reales o falsas. Las personas seguirán siendo cautelosas ya que nuestro trabajo les permitirá reconocer la imagen profundamente falsa.

Los conjuntos de datos utilizados y/o analizados durante el estudio actual están disponibles del autor correspondiente a pedido razonable.

Boylan, JF Will Deep-Fake Technology Destroy Democracy (The New York Times, 2018).

Google Académico

Harwell, D. Scarlett Johansson sobre videos sexuales falsos generados por IA: "Nada puede impedir que alguien corte y pegue mi imagen". J. Washington Post 31, 12 (2018).

Google Académico

Masood, M. et al. Generación y detección de deepfakes: desafíos abiertos, contramedidas y camino a seguir. aplicación Intel. 53, 1–53 (2022).

Google Académico

Amin, R., Al Ghamdi, MA, Almotiri, SH & Alruily, M. Técnicas de atención médica a través del aprendizaje profundo: problemas, desafíos y oportunidades. Acceso IEEE 9, 98523–98541 (2021).

Artículo Google Académico

Turek, MJ Agencia de Proyectos de Investigación Avanzada de Defensa. https://www.darpa.mil/program/media-forensics. Medios Forenses (MediFor). vol. 10 (2019).

Schroepfer, MJF Creando un conjunto de datos y un desafío para los deepfakes. Artefacto Intel. 5, 263 (2019).

Google Académico

Kibriya, H. et al. Un modelo de clasificación de tumores cerebrales novedoso y efectivo que utiliza Deep Feature Fusion y famosos clasificadores de aprendizaje automático. vol. 2022 (2022).

Rafique, R., Nawaz, M., Kibriya, H. & Masood, M. Detección de DeepFake mediante análisis de nivel de error y aprendizaje profundo. en 2021 4ª Conferencia Internacional sobre Computación y Ciencias de la Información (ICCIS). 1–4 (IEEE, 2021).

Güera, D. & Delp, EJ Detección de video deepfake usando redes neuronales recurrentes. en 2018 15.ª Conferencia internacional IEEE sobre vigilancia avanzada basada en señales y vídeo (AVSS). 1–6 (IEEE, 2018).

Aleem, S. et al. Algoritmos de aprendizaje automático para la depresión: diagnóstico, conocimientos y direcciones de investigación. Electrónica 11(7), 1111 (2022).

Artículo Google Académico

Pavan Kumar, M. & Jayagopal, P. Redes antagónicas generativas: una encuesta sobre aplicaciones y desafíos. En t. J. Multimed. información 10(1), 1–24 (2021).

Artículo Google Académico

Mansoor, M. et al. Un enfoque de aprendizaje automático para la detección de caídas no invasiva mediante Kinect. multimed. Aplicación de herramientas 81(11), 15491–15519 (2022).

Artículo Google Académico

Thies, J., Zollhofer, M., Stamminger, M., Theobalt, C. & Nießner, M. Face2face: captura de rostros en tiempo real y recreación de videos rgb. en las Actas de la Conferencia IEEE sobre Visión por Computador y Reconocimiento de Patrones. 2387–2395 (2016).

Shad, HS et al. Análisis comparativo del método de detección de imágenes falsas profundas utilizando una red neuronal convolucional. vol. 2021 (2021).

Matern, F., Riess, C. y Stamminger, M. Explotación de artefactos visuales para exponer falsificaciones profundas y manipulaciones faciales. en 2019 IEEE Winter Applications of Computer Vision Workshops (WACVW). 83–92 (IEEE, 2019).

Agarwal, S., Farid, H., Gu, Y., He, M., Nagano, K. y Li, H. Proteger a los líderes mundiales contra las falsificaciones profundas. en Talleres CVPR. vol. 1. 38 (2019).

Ciftci, UA, Demir, I. & Yin, L. Fakecatcher: Detección de videos de retratos sintéticos usando señales biológicas (Patentes de Google, 2021).

Google Académico

Yang, X., Li, Y. & Lyu, S. Exponiendo falsificaciones profundas usando poses de cabeza inconsistentes. en ICASSP 2019–2019 Conferencia internacional IEEE sobre procesamiento de señales, voz y acústica (ICASSP) 8261–8265. (IEEE, 2019).

Rossler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. & Nießner, M. Faceforensics++: Aprendiendo a detectar imágenes faciales manipuladas. en Actas de la Conferencia Internacional IEEE/CVF sobre Visión por Computador. 1-11 (2019).

McCloskey, S. & Albright, M. Detección de imágenes generadas por GAN mediante señales de saturación. en 2019 Conferencia internacional IEEE sobre procesamiento de imágenes (ICIP). 4584–4588. (IEEE, 2019).

Abd Elaziz, M., Dahou, A., Orabi, DA, Alshathri, S., Soliman, EM & Ewees, AAJM Un marco híbrido de aprendizaje multitarea con un optimizador Fire Hawk para la detección de noticias falsas en árabe. vol. 11(2). 258 (2023).

Wodajo, D. & Atnafu, SJAPA Detección de videos falsos profundos usando un transformador de visión convolucional (2021).

Guarnera, L., Giudice, O. & Battiato, S. Detección de deepfakes mediante el análisis de trazas convolucionales. en las Actas de la Conferencia IEEE/CVF sobre Talleres de Reconocimiento de Patrones y Visión por Computador. 666–667 (2020).

Nguyen, HH, Fang, F., Yamagishi, J. & Echizen, I. Aprendizaje multitarea para detectar y segmentar imágenes y videos faciales manipulados. en 2019 IEEE 10th International Conference on Biometrics Theory, Applications and Systems (BTAS). 1–8. (IEEE, 2019).

Khalil, SS, Youssef, SM y Saleh, SNJFI iCaps-Dfake: un modelo integrado basado en cápsulas para la detección de imágenes y videos falsos profundos. vol. 13(4). 93 (2021).

Afchar, D., Nozick, V., Yamagishi, J. y Echizen, I. Mesonet: una red compacta de detección de falsificación de video facial. en 2018 Taller internacional IEEE sobre análisis forense y seguridad de la información (WIFS). 1–7 (IEEE, 2018).

Wang, Y. & Dantcheva, A. Un video vale más que 1000 mentiras. Comparación de enfoques de 3DCNN para detectar falsificaciones profundas. en 2020 15.ª Conferencia internacional IEEE sobre reconocimiento automático de rostros y gestos (FG 2020). 515–519. (IEEE, 2020).

Cozzolino, D., Thies, J., Rössler, A., Riess, C., Nießner, M. & Verdoliva, LJAPA Forensictransfer: Adaptación de dominio con supervisión débil para la detección de falsificaciones (2018).

Huang, G., Liu, Z., Van Der Maaten, L. y Weinberger, KQ Redes convolucionales densamente conectadas. en las Actas de la Conferencia IEEE sobre Visión por Computador y Reconocimiento de Patrones. 4700–4708 (2017).

LeCun, Y., Bengio, Y. & Hinton, G. Aprendizaje profundo. Naturaleza 521 (7553), 436–444 (2015).

Artículo ADS CAS PubMed Google Scholar

He, K., Zhang, X., Ren, S. y Sun, J. Aprendizaje residual profundo para el reconocimiento de imágenes. en las Actas de la Conferencia IEEE sobre Visión por Computador y Reconocimiento de Patrones. 770–778 (2016).

Nida, N., Irtaza, A. & Ilyas, N. Detección de rostros falsificados usando ELA y técnicas de aprendizaje profundo. en 2021 Conferencia Internacional Bhurban sobre Ciencias y Tecnologías Aplicadas (IBCAST). 271–275 (IEEE, 2021).

Kibriya, H., Masood, M., Nawaz, M., Rafique, R. & Rehman, S. Clasificación de tumores cerebrales multiclase mediante una red neuronal convolucional y una máquina de vectores de soporte. en 2021 Conferencia Internacional de Computación de la Universidad Mohammad Ali Jinnah (MAJICC). 1–4 (IEEE, 2021).

Kibriya, H., Masood, M., Nawaz, M. & Nazir, TJMT Clasificación multiclase de tumores cerebrales utilizando una nueva arquitectura CNN. multimed. aplicación de herramienta 81, 1–17 (2022).

Artículo Google Académico

Salman, FM & Abu-Naser, SS Clasificación de rostros humanos reales y falsos mediante aprendizaje profundo. IJAER 6(3), 1–14 (2022).

Google Académico

Anaraki, AK, Ayati, M. & Kazemi, FJ Clasificación de grados de tumores cerebrales basada en imágenes de resonancia magnética y clasificación a través de redes neuronales convolucionales y algoritmos genéticos. Información 39(1), 63–74 (2019).

Google Académico

Albawi, S., Mohammed, TA y Al-Zawi, S. Comprensión de una red neuronal convolucional. en 2017 Conferencia Internacional de Ingeniería y Tecnología (ICET). 1–6 (IEEE, 2017).

O'Shea, K. & Nash, RJ Introducción a las redes neuronales convolucionales (2015).

Szegedy, C. et al. Profundizando con las circunvoluciones. en las Actas de la Conferencia IEEE sobre Visión por Computador y Reconocimiento de Patrones. 1–9 (2015).

Iandola, FN, Han, S., Moskewicz, MW, Ashraf, K., Dally, WJ y Keutzer, KJ SqueezeNet: Precisión de nivel de AlexNet con 50 veces menos parámetros y < 0,5 MB de tamaño de modelo (2016).

He, K., Zhang, X., Ren, S. y Sun, J. Aprendizaje residual profundo para el reconocimiento de imágenes. en las Actas de la Conferencia IEEE sobre Visión por Computador y Reconocimiento de Patrones, Las Vegas, EE. UU. 770–778 (2016).

Introducción a las Redes Residuales. https://www.geeksforgeeks.org/introduction-to-residual-networks/ (2020).

Ali, L. et al. Evaluación del desempeño de técnicas profundas de detección y localización de grietas basadas en CNN para estructuras de concreto. Sensores 21(5), 1688 (2021).

Artículo ADS PubMed PubMed Central Google Scholar

Ramzan, F. et al. Un enfoque de aprendizaje profundo para el diagnóstico automatizado y la clasificación multiclase de las etapas de la enfermedad de Alzheimer utilizando resonancia magnética funcional en estado de reposo y redes neuronales residuales. J.Med. sist. 44(2), 1–16 (2020).

Artículo MathSciNet Google Académico

Mancini, M., Costante, G., Valigi, P. & Ciarfuglia, TA Estimación de profundidad monocular rápida y robusta para la detección de obstáculos con redes totalmente convolucionales. en la Conferencia Internacional IEEE/RSJ de 2016 sobre Robots y Sistemas Inteligentes (IROS). 4296–4303 (IEEE, 2016).

Kasim, N., Rahman, N., Ibrahim, Z. y Mangshor, NA Reconocimiento facial de celebridades mediante aprendizaje profundo. Indonesia J. Electr. Ing. computar ciencia 12(2), 476–481 (2018).

Artículo Google Académico

Rezgui, D. & Lachiri, Z. Reconocimiento biométrico de ECG utilizando un enfoque basado en SVM. IEEJ Trans. eléctrico Electrón. Ing. 11, S94–S100 (2016).

Artículo Google Académico

YU Laboratorio de Inteligencia Computacional y Fotografía. Detección de caras reales y falsas (2019).

Tolosana, R., Romero-Tapiador, S., Fierrez, J. & Vera-Rodriguez, R. Evolución de los deepfakes: análisis de regiones faciales y rendimiento de detección de fake. en Conferencia Internacional sobre Reconocimiento de Patrones. 442–456 (Springer, 2016).

Mehra, A. Detección de falsificaciones profundas mediante redes cápsula con redes de memoria a largo plazo (Universidad de Twente, 2020).

Google Académico

Mittal, H., Saraswat, M., Bansal, JC y Nagar, A. Clasificación de imágenes de caras falsas utilizando un método mejorado de selección de características basado en la evolución inspirado en la cuántica. en 2020 Serie de simposios IEEE sobre inteligencia computacional (SSCI). 989–995 (IEEE, 2020).

Chandani, K. & Arora, M. Detección automática de falsificación facial mediante redes neuronales profundas. en Avances en Ingeniería Interdisciplinaria. 205–214 (Springer, 2021).

Lee, S., Tariq, S., Shin, Y. & Woo, SS Detección de manipulaciones de imágenes faciales hechas a mano e imágenes faciales generadas por GAN mediante Shallow-FakeFaceNet. aplicación Cómputo suave. 105, 107256 (2021).

Artículo Google Académico

Descargar referencias

Esta investigación fue apoyada por el Ministerio de Educación, Juventud y Deportes de la República Checa bajo la subvención SP2023/007 realizada por VSB—Universidad Técnica de Ostrava.

Departamento de Ciencias de la Computación, Universidad de Ingeniería y Tecnología, Taxila, Pakistán, 47050

Rimsha Rafique y Rashid Amin

Departamento de Ingeniería Eléctrica, Universidad Nacional de Chonnam, Gwangju, 61186, Corea del Sur

Rahma Gantassi

Departamento de Ciencias de la Computación, Universidad de Chakwal, Chakwal, 48800, Pakistán

Rashid Amín

Departamento de Métodos Cuantitativos e Informática Económica, Facultad de Operación y Economía del Transporte y las Comunicaciones, Universidad de Zilina, 01026, Zilina, Eslovaquia

jaroslav frnda

Departamento de Telecomunicaciones, Facultad de Ingeniería Eléctrica y Ciencias de la Computación, Universidad Técnica VSB de Ostrava, 70800, Ostrava, República Checa

jaroslav frnda

Facultad de Ciencias Aplicadas y Tecnología, Universiti Tun Hussein Onn Malaysia, KM1 Jalan Pagoh, 84600, Pagoh, Johor, Malaysia

Aida Mustafá

Facultad de Ciencias y Humanidades de Durma, Universidad de Shaqra, Shaqra, 11961, Arabia Saudita

Asma Hassan Alshehri

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

Todos los autores contribuyeron por igual.

Correspondencia a Rashid Amin.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Rafique, R., Gantassi, R., Amin, R. et al. Detección y clasificación profundas de falsificaciones mediante análisis de nivel de error y aprendizaje profundo. Informe científico 13, 7422 (2023). https://doi.org/10.1038/s41598-023-34629-3

Descargar cita

Recibido: 26 diciembre 2022

Aceptado: 04 mayo 2023

Publicado: 08 mayo 2023

DOI: https://doi.org/10.1038/s41598-023-34629-3

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.