Red de conocimiento de divisas - Apertura de cuenta en divisas - Computación afectiva "Computación afectiva" en la interacción persona-computadora

Computación afectiva "Computación afectiva" en la interacción persona-computadora

La interacción tradicional persona-computadora se realiza principalmente a través del teclado, mouse, pantalla, etc. Solo persigue la conveniencia y la precisión, y no puede comprender ni adaptarse a las emociones o estados de ánimo de las personas. Sin esta capacidad de comprender y expresar emociones, es difícil esperar que las computadoras tengan la misma inteligencia que los humanos, y también es difícil esperar que la interacción persona-computadora sea verdaderamente armoniosa y natural. Debido a que la comunicación entre personas es natural y emocional, las personas naturalmente esperan que las computadoras tengan capacidades emocionales durante la interacción persona-computadora. La informática afectiva pretende dar a las computadoras la capacidad de observar, comprender y generar diversas características emocionales como los humanos y, en última instancia, permitir que las computadoras interactúen de forma tan natural, amigable y vívida como los humanos. Ya a finales de 2019 se llevó a cabo una investigación en profundidad sobre las emociones humanas. Sin embargo, aparte de la ciencia ficción, pocas personas en el pasado han asociado el "sentido" con máquinas inanimadas. Sólo en los tiempos modernos, con el desarrollo de la tecnología de la información digital, la gente empezó a imaginar que las máquinas (computadoras) también tienen "emociones". Extraer características emocionales de las señales perceptivas y analizar la relación entre las emociones humanas y diversas señales perceptivas es una nueva dirección de investigación que ha surgido a nivel internacional en los últimos años (Figura 1).

Los cambios en las emociones y la mentalidad de las personas siempre van acompañados de los altibajos de determinadas características fisiológicas o de comportamiento, y se ven afectados por una serie de factores como el entorno, el entorno cultural y la personalidad de las personas. Para que las máquinas procesen las emociones, primero debemos explorar el proceso de interacción entre las personas. Entonces, ¿cómo expresan las personas las emociones y cómo las perciben con precisión? Las personas expresan emociones a través de una serie de expresiones faciales, movimientos corporales y sonidos, y perciben cambios emocionales a través de la visión, el oído y el tacto. La percepción visual se produce principalmente a través de expresiones faciales y gestos; el habla y la música son los principales modos auditivos; el tacto incluye el procesamiento de caricias, impactos, secreción de sudor, latidos del corazón y otros fenómenos.

El objetivo de la investigación en computación afectiva es adquirir señales características fisiológicas y de comportamiento causadas por las emociones humanas a través de varios sensores y establecer un "modelo emocional" para crear un sistema informático personal con la capacidad de percibir, reconocer y comprender. emociones humanas Dar respuestas inteligentes, sensibles y amigables a las emociones de los usuarios, acortar la distancia entre los humanos y las máquinas y crear un entorno humano-máquina verdaderamente armonioso (Figura 2). En la vida, a las personas les resulta difícil mantener una expresión facial rígida. Expresar emociones a través de expresiones faciales es una forma natural. Las áreas de expresión emocional incluyen principalmente la boca, las mejillas, los ojos, las cejas, la frente, etc. Cuando las personas expresan emociones, sólo necesitan cambiar ligeramente los rasgos locales de la cara (como fruncir el ceño) para reflejar un estado mental. En 1972, el famoso erudito Ekman propuso el método de expresión de emociones faciales (FACS). Mediante la combinación de diferentes unidades de codificación y motoras se pueden formar cambios complejos de expresión en el rostro, como felicidad, enfado, tristeza, etc. Este resultado ha sido aceptado por la mayoría de los investigadores y aplicado al reconocimiento y síntesis automáticos de expresiones faciales (Figura 3).

Con el rápido desarrollo de la tecnología informática, para satisfacer las necesidades de comunicación, las personas han integrado aún más el reconocimiento facial y la síntesis en la codificación de la comunicación. El más típico es el estándar visual MPEG4 V2, que define tres conjuntos de parámetros importantes: parámetros de definición de rostros, transformación de interpolación de rostros y parámetros de animación de rostros. Los valores específicos en los parámetros de expresión representan el nivel de entusiasmo de una persona y se pueden combinar varias expresiones para simular expresiones mixtas.

En la tecnología actual de procesamiento de expresiones faciales, se pone más énfasis en una descripción y modelado más detallados de imágenes tridimensionales. A menudo se utilizan texturas complejas y algoritmos detallados de transformación de gráficos para lograr expresiones emocionales vívidas. Sobre esta base, diferentes algoritmos forman diferentes niveles de sistemas de aplicación (Figura 4, Figura 5). Las posturas humanas generalmente cambian con el proceso de interacción y transmiten cierta información. Por ejemplo, el fortalecimiento de los gestos suele reflejar un estado de ánimo enfatizado, con una determinada parte del cuerpo en constante balanceo, que suele ser emocional. En comparación con los cambios en la voz y las expresiones faciales, la regularidad de los cambios de postura es difícil de obtener, pero la gente todavía le presta mucha atención porque los cambios en la postura humana hacen que las expresiones sean más vívidas.

Los científicos han diseñado una serie de dispositivos de captura de información corporal y de movimiento específicos para los movimientos corporales, como dispositivos de captura de movimiento, guantes de datos, asientos inteligentes, etc. Algunas famosas universidades extranjeras y empresas multinacionales, como el MIT e IBM, han creado espacios inteligentes basados ​​en estos dispositivos. Al mismo tiempo, algunas personas han aplicado asientos inteligentes en el asiento del conductor de los automóviles para monitorear dinámicamente el estado emocional del conductor y emitir advertencias oportunas. Algunos científicos italianos también analizan automáticamente los sentimientos de los trabajadores de oficina mediante una serie de análisis de postura para diseñar un entorno de oficina más cómodo.

En el proceso de comunicación interpersonal, la voz es el canal de comunicación más directo entre las personas. Las personas pueden sentir claramente los cambios emocionales de la otra parte a través de la voz, como cambiar el tono mediante partículas modales especiales, etc. Cuando las personas hablan por teléfono, aunque no puedan verse, pueden sentir los cambios emocionales de la otra persona por su tono de voz. Por ejemplo, la misma frase "Eres realmente bueno" puede convertirse en elogio, sarcasmo o celos usando diferentes tonos.

En la actualidad, la investigación internacional sobre fonética emocional se centra principalmente en el análisis de las características acústicas emocionales. En términos generales, las características emocionales del habla suelen expresarse mediante cambios en el ritmo del habla. Por ejemplo, cuando una persona está enojada, su velocidad de habla será más rápida, su volumen será más alto y su tono será más alto. Algunas características de los fonemas (* * * picos de vibración, funciones de sección transversal del tracto vocal, etc.) pueden ser más altas. También reflejan cambios en las emociones. Expertos del Laboratorio Estatal Clave de Reconocimiento de Patrones del Instituto de Automatización de la Academia de Ciencias de China propusieron por primera vez el modelo de generación de foco emocional en respuesta al fenómeno de foco en el lenguaje. Esto proporciona una base para la predicción automática de estados emocionales en la síntesis del habla. Combinados con modelos acústicos de alta calidad, la síntesis y el reconocimiento del habla emocional alcanzan por primera vez el nivel de aplicación práctica. Aunque los rostros, las posturas y las voces pueden expresar ciertas emociones de forma independiente, las personas siempre se comunican mediante la expresión integral de la información anterior. Por lo tanto, sólo implementando una interfaz hombre-computadora multicanal podemos integrar el lenguaje natural, el habla, el lenguaje de señas, el rostro, la lectura de labios, la postura de la cabeza, la postura del cuerpo y otra información, y codificar, comprimir, integrar y fusionar la información de En estos canales, el procesamiento de información multimedia como imágenes, audio, video, texto, etc. es la forma más natural para que los humanos interactúen con las computadoras.

Actualmente, la tecnología multimodal en sí se está convirtiendo en un punto de investigación en la interacción humano-computadora, la computación emocional combinada con la tecnología de procesamiento multimodal puede lograr una fusión de emociones de múltiples funciones, lo que puede mejorar efectivamente la profundidad de la investigación de la computación emocional y. promover la investigación de alta tecnología La aparición de sistemas de interacción persona-computadora más armoniosos y de calidad.

En la investigación de la computación emocional multimodal, una rama de investigación muy importante es la investigación de robots emocionales y humanos virtuales emocionales. El MIT, la Universidad de Ciencia y Tecnología de Tokio y la Universidad Carnegie Mellon han creado buenos sistemas de demostración a este respecto. Actualmente, el Laboratorio Nacional Clave de Reconocimiento de Patrones, Instituto de Automatización de la Academia de Ciencias de China, ha integrado el procesamiento de emociones en su plataforma de interacción multimodal existente para voz y rostro, y lo ha integrado con síntesis de habla emocional, modelado facial y modelo de posición visual. , etc. Una serie de tecnologías de última generación combinadas. , crean avatares virtuales emocionales vívidos y están recurriendo activamente a aplicaciones prácticas como plataformas integradas y plataformas de juegos (Figura 6). El reconocimiento y la comprensión de los estados emocionales son pasos clave para que las computadoras puedan comprender las emociones y responder adecuadamente. Este paso normalmente implica extraer características de la información emocional de las personas para su reconocimiento, como distinguir las cejas de las sonrisas, y luego dejar que la computadora aprenda estas características para que pueda identificar con precisión sus emociones en el futuro.

Para permitir que las computadoras completen mejor la tarea de reconocimiento de emociones, los científicos han clasificado de manera razonable y clara los estados emocionales humanos y han propuesto varias emociones básicas. Actualmente, una gran cantidad de resultados de investigaciones en reconocimiento de patrones, inteligencia artificial y tecnología del habla y la imagen se aplican a métodos de reconocimiento y comprensión de emociones. Por ejemplo, a partir del análisis acústico del habla emocional, se implementó un prototipo de reconocimiento de emociones basado en el habla utilizando métodos estadísticos lineales y modelos de redes neuronales codificando áreas de movimiento facial y utilizando diferentes modelos como HMM, un método de reconocimiento de rasgos emocionales faciales; fue establecido. A través del análisis de la postura y el movimiento humanos, explore el alcance emocional de los movimientos corporales y más.

Sin embargo, debido a la falta de tecnología de captura de información emocional y de recursos de datos emocionales a gran escala, es necesario profundizar la investigación sobre modelos de comprensión emocional basados ​​en la fusión de múltiples funciones. En el futuro, con el avance de la tecnología, se propondrán mecanismos de aprendizaje automático más eficaces. La computación emocional y la tecnología de interacción inteligente intentan establecer interacciones naturales precisas entre humanos y computadoras, lo que será un medio importante para que la tecnología informática penetre completamente en la sociedad humana. En el futuro, con los continuos avances tecnológicos, la aplicación de la informática emocional será imperativa y su impacto en la vida diaria será multifacético. En la actualidad, podemos prever las siguientes situaciones:

La informática afectiva cambiará efectivamente los rígidos servicios interactivos de las computadoras en el pasado y mejorará la facilidad y precisión de la interacción persona-computadora. Las computadoras con capacidades emocionales pueden adquirir, clasificar, identificar y responder a las emociones humanas, ayudando así a los usuarios a obtener sentimientos amigables y eficientes, reduciendo efectivamente la frustración de las personas al usar las computadoras e incluso ayudando a las personas a comprender fácilmente su propio mundo emocional y el de los demás.

También puede ayudarnos a mejorar la seguridad en el uso del dispositivo (por ejemplo, cuando un sistema que utiliza esta tecnología detecta que el conductor está distraído, puede cambiar el estado y la reacción del coche a tiempo), haciendo que el experimentar Humanizar, optimizar el aprendizaje mediado por computadora y recopilar nuestros comentarios. Por ejemplo, un proyecto de investigación utiliza computadoras para medir los niveles de estrés que experimentan los conductores de automóviles para ayudar a combatir el problema de la llamada "ira al volante" entre los conductores.

La informática afectiva y la investigación relacionada también pueden aportar beneficios a las empresas involucradas en el campo del comercio electrónico. Las investigaciones muestran que diferentes imágenes evocan diferentes emociones en los humanos. Por ejemplo, las imágenes de serpientes, arañas y armas de fuego evocan miedo, mientras que las imágenes de grandes cantidades de dólares en efectivo y pepitas de oro producen una reacción positiva muy fuerte. Si se estudia y considera la importancia de estos factores en el diseño de sitios web de compras y sitios web de negociación de acciones, tendrá un impacto muy positivo en el aumento del flujo de clientes.

Incorporar la función de detectar automáticamente los estados emocionales de las personas en aparatos de información e instrumentos inteligentes puede proporcionar mejores servicios.

En la aplicación de la recuperación de información, la precisión y eficiencia de la recuperación de información inteligente se pueden mejorar mediante la función de análisis de conceptos del análisis de sentimientos.

En las plataformas de educación a distancia, la aplicación de tecnología informática afectiva puede mejorar los efectos de la enseñanza.

Utilizando tecnología de interacción emocional multimodal podemos construir espacios inteligentes o escenarios virtuales más cercanos a la vida de las personas, etc.

La computación emocional también se puede aplicar a robots, juguetes inteligentes, juegos y otras industrias relacionadas para construir un estilo más antropomórfico y escenas más realistas. Debido a la falta de recursos de datos emocionales a gran escala, el desarrollo de la informática afectiva está restringido hasta cierto punto y en su mayoría se limita a campos de investigación específicos y dispersos, como el habla y el lenguaje corporal. Basándose únicamente en estos, es difícil inferir y generar con precisión el estado emocional de una persona y llevar a cabo una interacción emocional efectiva. Actualmente, los científicos están explorando activamente modelos teóricos de computación emocional basados ​​en la fusión de múltiples funciones. Muchos creen que la computación afectiva requerirá avances en estas áreas en los próximos años: adquisición, descripción y modelado paramétrico más detallados y precisos de la información emocional.

Reconocimiento, comprensión y expresión multimodal de emociones (imágenes, sonidos, características fisiológicas, etc.).

El impacto de las escenas naturales en las características fisiológicas y conductuales.

Un algoritmo de aprendizaje automático más aplicable.

Una enorme base de datos de datos emocionales. No hace mucho, con el fin de promover la investigación de mi país en este campo, explorar las tendencias de desarrollo y las tendencias de la computación afectiva y la tecnología de interacción inteligente, y promover los intercambios y la cooperación entre investigadores chinos en este campo, el Instituto de Automatización de la Academia China de Ciencias, la Sociedad de Automatización de China y la Federación de Computación de China La primera Conferencia Académica de Interacción Inteligente y Computación Afectiva de China fue organizada en Beijing por la Sociedad China de Gráficos y Gráficos, la Sociedad China de Información de China, la Fundación Nacional de Ciencias Naturales de China, y el Programa Nacional 863 sobre Tecnología de Software y Hardware Informáticos.

Los hechos han demostrado que, aunque el concepto de computación afectiva nació no hace mucho, ya ha recibido gran atención por parte de la academia y la industria, y la investigación y aplicación en campos relacionados están en ascenso. La Fundación Nacional de Ciencias Naturales de China también lo ha incluido en la guía del proyecto clave. Vale la pena señalar que en los últimos años, la investigación sobre computación ubicua y computadoras portátiles, que están estrechamente relacionadas con la computación afectiva, también ha experimentado un auge y ha recibido un fuerte apoyo del país. Esto proporciona una gran comodidad para la adquisición de información emocional en tiempo real y también proporciona una mejor plataforma de desarrollo para el desarrollo de la informática emocional en mi país.

上篇: ¿Cuáles son las ciudades de turismo paisajístico famosas en mi país? 下篇: ¿Qué trámites se necesitan para viajar de Heihe a Rusia?
Artículos populares