<?xml version='1.0' encoding='UTF-8'?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1d1 20130915//EN" "JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta id="journal-meta-1">
      <journal-id journal-id-type="nlm-ta">Revista Comunicar</journal-id>
      <journal-id journal-id-type="publisher-id">Revista Comunicar</journal-id>
      <journal-id journal-id-type="journal_submission_guidelines">https://www.revistacomunicar.com/index.php?idioma=es</journal-id>
      <journal-title-group>
        <journal-title>Comunicar Spanish</journal-title>
      </journal-title-group>
      <issn publication-format="electronic">1988-3293</issn>
      <issn publication-format="print">1134-3478</issn>
    </journal-meta>
    <article-meta id="article-meta-1">
      <article-id pub-id-type="doi">https://doi.org/10.3916/C76-2023-03</article-id>
      <title-group>
        <article-title id="at-9f7d9e611b5d">
          <bold id="strong-1">Aplicación y retos de la tecnología de movimiento ocular en Educación Superior</bold>
        </article-title>
        <trans-title-group>
          <trans-title>Application and challenges of eye tracking technology in Higher Education</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-1736-2089</contrib-id>
          <name id="n-f182f30e5c18">
            <surname>Sáiz-Manzanares.</surname>
            <given-names>María Consuelo</given-names>
          </name>
          <degrees>Dra.</degrees>
          <email>mcsmanzanares@ubu.es</email>
          <bio>
            <p>Profesora Titular, Departamento de Ciencias de la Salud, Universidad de Burgos (España) </p>
          </bio>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-2633-635X</contrib-id>
          <name id="n-6d8639e098c8">
            <surname>Marticorena-Sánchez.</surname>
            <given-names>Raúl</given-names>
          </name>
          <degrees>Dr.</degrees>
          <email>rmartico@ubu.es</email>
          <bio>
            <p>Profesor Titular, Departamento de Ingeniería Informática, Universidad de Burgos (España) </p>
          </bio>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">http://orcid.org/0000-0003-0534-960X</contrib-id>
          <name id="n-5090f724cf3b">
            <surname>Martín-Antón.</surname>
            <given-names>Luis-J.</given-names>
          </name>
          <degrees>Dr.</degrees>
          <email>luisjorge.martin@uva.es</email>
          <bio>
            <p>Profesor Titular, Departamento de Psicología, Universidad de Valladolid (España) </p>
          </bio>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-0651-7014</contrib-id>
          <name id="n-3aa631cc4b6a">
            <surname>Almeida.</surname>
            <given-names>Leandro</given-names>
          </name>
          <degrees>Dr.</degrees>
          <email>leandro@psi.uminho.pt</email>
          <bio>
            <p>Catedrático, Centro de Investigação em Psicologia, Universidad de Miño, Braga (Portugal) </p>
          </bio>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-2057-1762</contrib-id>
          <name id="n-5d68d5b975d6">
            <surname>Carbonero-Martín.</surname>
            <given-names>Miguel-Ángel</given-names>
          </name>
          <degrees>Dr.</degrees>
          <email>miguelangel.carbonero@uva.es</email>
          <bio>
            <p>Catedrático, Departamento de Psicología, Universidad de Valladolid (España) </p>
          </bio>
        </contrib>
      </contrib-group>
      <volume>31</volume>
      <issue>76</issue>
      <fpage>35</fpage>
      <permissions>
        <copyright-year>2023</copyright-year>
      </permissions>
      <abstract id="abstract-3982eb248b9c">
        <title id="abstract-title-932975dd9d9f">RESUMEN</title>
        <p id="paragraph-6777b44aec5e">Los avances neurotecnológicos están posibilitando en los contextos educativos nuevos conocimientos sobre la forma de aprender de cada estudiante. No obstante, su aplicación plantea retos para la docencia en contextos naturales. En este trabajo se presenta un ejemplo de uso y aplicabilidad de la tecnología de seguimiento ocular en el ámbito de la Educación Superior. Se trabajó con una muestra de 20 estudiantes de tres universidades (Burgos y Valladolid en España y Miño en Portugal). Los objetivos fueron: 1) comprobar si existían diferencias significativas en indicadores de esfuerzo cognitivo (FC, FD, SC, PD, VC) hallados con la tecnología de seguimiento ocular entre estudiantes con y sin conocimientos previos; 2) comprobar si existían clústeres de patrones de conductas de aprendizaje entre los estudiantes; 3) analizar diferencias en la visualización de los patrones de conducta. Se utilizó un diseño cuasiexperimental sin grupo control y un diseño descriptivo. Los resultados indicaron diferencias significativas entre los estudiantes con y sin conocimientos previos respecto de los resultados de aprendizaje. También, se hallaron dos tipos de clústeres en los indicadores de esfuerzo cognitivo. Finalmente, se efectuó un análisis comparativo sobre los patrones de conducta de aprendizaje en estudiantes del clúster 1 vs. clúster 2. El uso de la tecnología de seguimiento ocular posibilita el registro de un gran volumen de datos respecto del proceso de aprendizaje. No obstante, en la actualidad su uso en contextos educativos naturales exige al profesorado conocimientos tecnológicos y de minería de datos.</p>
      </abstract>
      <abstract id="abstract-9ad670f8315d">
        <title id="abstract-title-174bf989e81c">ABSTRACT</title>
        <p id="paragraph-89c29966ded9">Advances in neuro-technology provide new insights into how individual students learn in educational contexts. However, applying it poses challenges for teachers in natural settings. This paper presents an example of the use and applicability of eye-tracking technology in Higher Education. We worked with a sample of 20 students from three universities (Burgos and Valladolid in Spain and Miño in Portugal). The objectives were: (1) to determine whether there were significant differences in indicators of cognitive effort (FC, FD, SC, PD, VC) found with eye-tracking technology between students with and without prior knowledge; (2) to determine whether there were clusters of learning behavior patterns among students; and (3) to analyze differences in the visualization of behavior patterns. A quasi-experimental design without a control group and a descriptive design were used. The results indicated significant differences in learning outcomes between students with and without prior knowledge. In addition, two clusters were found in indicators of cognitive effort. Finally, a comparative analysis of learning behavior patterns between students in cluster 1 vs. cluster 2 was performed. Eye-tracking technology makes it possible to record large data about the learning process. However, using it in natural educational settings currently requires teachers to have technological and data mining skills.</p>
      </abstract>
      <kwd-group id="kwd-group-1">
        <title>Palabras clave</title>
        <kwd>Neuroeducación</kwd>
        <kwd>patrones de aprendizaje</kwd>
        <kwd>seguimiento ocular</kwd>
        <kwd>aprendizaje personalizado</kwd>
        <kwd>análisis de clúster</kwd>
        <kwd>tecnología educativa</kwd>
      </kwd-group>
      <kwd-group id="kg-683f9b034fb3">
        <title>Keywords</title>
        <kwd>Neuro-education</kwd>
        <kwd>learning patterns</kwd>
        <kwd>eye tracking</kwd>
        <kwd>personalized learning</kwd>
        <kwd>cluster analysis</kwd>
        <kwd>educational technology</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement>Este trabajo se ha desarrollado con la ayuda a dos proyectos de investigación: Proyecto europeo SmartArt 2019-1-ES01-KA204-095615-Coordinador 6 y «Asistentes de voz e inteligencia artificial en Moodle: un camino hacia una universidad inteligente». Convocatoria 2020 Proyectos de I+D+i - RTI Tipo B. Referencia: PID2020-117111RB-I00.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <body>
    <sec>
      <title id="t-b6fa69afcf4c">Introducción y estado de la cuestión</title>
      <p id="t-007611541f8f">En este estudio se va a abordar la funcionalidad de la utilización de la tecnología de seguimiento ocular en el contexto de enseñanza-aprendizaje en el ámbito universitario. En primer lugar, es importante hacer referencia a qué es la tecnología de seguimiento ocular. El uso de esta se inicia en 1800 y un representante destacado en su desarrollo fue Louis Émile Javal. Concretamente, este autor utilizó la tecnología de seguimiento ocular en el ámbito de la óptica fisiológica para el estudio del estrabismo. La tecnología de seguimiento ocular se fundamenta en el registro del barrido visual que una persona efectúa cuando interactúa con objetos, imágenes, vídeos, documentos, espacios, etc. </p>
      <p id="paragraph-2">Las métricas que recoge esta tecnología se pueden clasificar en estáticas y dinámicas. Entre las primeras, se encuentran las fijaciones (estas hacen referencia a las frecuencias de posicionamiento del ojo en un estímulo) (Joe-Louis-Paul et al., 2019), las sacadas (estas refieren el paso de un estímulo a otro) (Elliott et al., 2020), el diámetro de la pupila (esta métrica hace referencia a la dilatación de la pupila ante distintos estímulos) (Sáiz-Manzanares et al., 2021a) y la longitud de la cadena (se refiere a la longitud del «scan path» o «gaze point» de cada participante en la ruta de seguimiento ocular implementada) (Kao et al., 2019; Seifert et al., 2017). Y en métricas dinámicas, estas registran el tiempo de fijación de la mirada dentro de un área definida por coordenadas cartesianas (Sáiz-Manzanares et al., 2020). Dicha área se puede dividir por el experimentador en áreas relevantes, no relevantes o parcialmente relevantes (Joe-Louis-Paul et al., 2019). Es decir, la tecnología de seguimiento ocular registra la trayectoria de exploración que cada persona efectúa en un intervalo de tiempo determinado (Sáiz-Manzanares et al., 2021a). En la Tabla 1 se aporta información sobre algunas de las métricas estáticas y su posible interpretación en el proceso de enseñanza-aprendizaje. Dicha interpretación se recoge en los manuales de uso de la mencionada tecnología.</p>
      <fig id="f-0d4dbc5194ac" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 0 </label>
        <graphic id="g-2eccd284d9fd" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/45ca9e51-cf41-4e1d-ae08-06d02107ca98/image/ed19bab7-ec37-475d-b626-be0a2323edfd-u03-01.png"/>
      </fig>
      <sec>
        <title id="t-222957badd14">
          <bold id="s-4e4ffea4812a">¿Qué ofrece la tecnología de seguimiento ocular a la docencia?</bold>
        </title>
        <p id="t-bce0f34a6bd1">La tecnología de seguimiento ocular se utiliza como una herramienta de apoyo en el estudio del comportamiento humano y se puede aplicar en distintos campos entre los que se encuentra el ámbito educativo (Tsai et al., 2022). Concretamente, en dicho entorno la tecnología de seguimiento ocular se puede utilizar para estudiar los niveles atencionales y su relación con los procesos cognitivos en los aprendices (Taub &amp; Azevedo, 2019) durante la resolución de una tarea (Ollesch et al., 2021). Como ya se ha señalado, esta tecnología proporciona métricas estáticas y dinámicas. Las primeras incluyen diversos parámetros (duración, frecuencia, velocidad, número, en fijaciones y sacadas y dilatación de la pupila, etc.) (Merchie et al., 2022). El objetivo final del análisis de dichas métricas es detectar los patrones de conductas de interacción con el estímulo y, en función de los resultados de aprendizaje, determinar cuál de ellos es más efectivo (Chango et al., 2022). Concretamente, las ventajas que ofrecen las métricas estáticas en el ámbito educativo se relacionan con el conocimiento que proporcionan al profesorado sobre los niveles atencionales y de esfuerzo cognitivo que experimenta el estudiantado durante la resolución de distintos tipos de tareas (Prokop et al., 2020; Shojaeizadeh et al., 2019; Yang &amp; Wang, 2023). Estos datos van a permitir al profesorado la adaptación del contenido y la estructura de las tareas de aprendizaje a las necesidades de cada estudiante, impulsando la personalización del aprendizaje (Chemerys &amp; Ponomarenko, 2022; Ollesch et al., 2021). </p>
        <p id="p-203362144eb3">También, la tecnología de seguimiento ocular registra métricas dinámicas, que hacen referencia al rastreo de la trayectoria espacial y temporal del recorrido visual mientras el estudiante resuelve una tarea (Diwanji, 2022; van-Marlen et al., 2018). El profesorado puede diferenciar dentro de los estímulos (elementos de los que consta una tarea de aprendizaje) las Áreas de Interés relevantes (AOI) (hacen referencia a la información más importante estimada por el docente) vs. no relevantes (refieren la información menos importante estimada). Una vez realizada la diferenciación de las AOI se pueden obtener los patrones de conducta del estudiantado dentro del estímulo de aprendizaje aplicado (Coskun &amp; Cagiltay, 2022; Merchie et al., 2022; Tsai et al., 2022). Posteriormente, se podrá analizar la relación entre dichos patrones y los resultados de aprendizaje (McLeod et al., 2022; Ollesch et al., 2021) diferenciando los más eficaces (Feng &amp; Law, 2021; McLeod et al., 2022; Merchie et al., 2022; Tsai et al., 2022; Yang &amp; Wang, 2023). En síntesis, estos datos permitirán al profesorado realizar orientaciones pedagógicas específicas dirigidas especialmente al estudiantado con resultados menos satisfactorios (Molina et al., 2017; Sáiz-Manzanares et al., 2021b).</p>
      </sec>
      <sec>
        <title id="t-473b87697e8f"><bold id="s-71a6565abedd">¿Cuáles son los problemas y las limitaciones del uso de la tecnología de seguimiento ocular</bold> <bold id="strong-2">en el contexto natural de aprendizaje?</bold></title>
        <p id="t-9db701762f6d">La tecnología de seguimiento ocular en la última década ha avanzado mucho en cuanto al manejo. En la actualidad, los equipos de seguimiento ocular pueden aplicarse en contextos naturales con más fluidez (Schweizer et al., 2022). Asimismo, esta tecnología se puede incorporar a dispositivos de realidad aumentada (Thees et al., 2022), realidad virtual (Chango et al., 2022; Mills et al., 2016; Rother &amp; Spiliopoulou, 2022; Yang &amp; Wang, 2023) o en dispositivos móviles (Kuhnel et al., 2018). Todas estas funcionalidades van a facilitar la aplicabilidad de dicha tecnología en la enseñanza habitual. No obstante, su utilización en el contexto educativo presenta retos importantes para el profesorado. En primer lugar, aunque los dispositivos de seguimiento ocular han reducido su volumen y pueden utilizarse en espacios fuera de un laboratorio siguen exigiendo una cualificación para su manejo. </p>
        <p id="p-084f66a3d38e">El proceso de uso en el ámbito educativo implica: 1) el diseño de la tarea de aprendizaje; 2) la integración de dicha tarea en el dispositivo de seguimiento ocular; 3) la calibración del ajuste de la mirada del estudiantado a la pantalla; y 4) una vez realizada la tarea de aprendizaje hay que extraer, depurar, tratar e interpretar los datos registrados. Actualmente, la tecnología de seguimiento ocular ofrece de forma automática interpretaciones sencillas de los registros. No obstante, en estos dispositivos no se incluyen todas las posibilidades de tratamiento y análisis de los datos. </p>
        <p id="p-52ef6b20c130">La dificultad en este punto estriba en el gran volumen de datos que dicha tecnología recoge (Sáiz-Manzanares et al., 2020). Esta funcionalidad es muy relevante, pero exige la aplicación de técnicas de «Educational Data Mining» (EDM) para el correcto análisis e interpretación de los resultados (Chango et al., 2022; Feng &amp; Law, 2021). Dichas técnicas hacen referencia a la utilización de algoritmos de aprendizaje automático («Machine Learning») para el análisis de datos educativos  (Bogarín et al., 2018). En síntesis, la utilización de la tecnología de seguimiento ocular en el contexto educativo es prometedora. Sin embargo, para su buen uso se precisa de un plan de formación del profesorado en los aspectos anteriormente indicados.</p>
      </sec>
      <sec>
        <title id="t-0690a71c2193">
          <bold id="s-f31009873520">¿Qué posibilidades de utilización de otros recursos de evaluación neurotecnológica tiene la tecnología de seguimiento ocular?</bold>
        </title>
        <p id="t-da5ed6cfe2f3">La tecnología de seguimiento ocular tiene la funcionalidad de poder incluir otros dispositivos de registro como son la medición de la respuesta psicogalvánica de la piel (GSR) (He et al., 2022), del registro electroencefalográfico (EEG) (Luo &amp; Zhou, 2020; Scharinger et al., 2020), y de la grabación de la cara del aprendiz para un posterior análisis de las emociones durante la ejecución de una tarea. Esta tecnología, dependiendo del grado de sofisticación del equipo, también puede facilitar la integración de estas métricas en multirregistros. Estos permitirán una mayor fiabilidad en las interpretaciones sobre el proceso de aprendizaje de un estudiante (Alemdag &amp; Cagiltay, 2018), si bien su aplicación se deberá hacer en entornos de laboratorio. Asimismo, hay que considerar que aportarán información sobre el procesamiento de la información del estudiantado durante la ejecución de distintos tipos de tareas (Giannakos et al., 2019). Como ya se ha indicado anteriormente, en este contexto, el diseño de la tarea es fundamental.</p>
        <fig id="f-da4dcfb52ac7" orientation="portrait" fig-type="graphic" position="anchor">
          <label>Figure 0 </label>
          <graphic id="g-6f4cd0f21d17" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/45ca9e51-cf41-4e1d-ae08-06d02107ca98/image/7b35ceff-f23f-4671-822e-01b8b38bfe90-u03-02.png"/>
        </fig>
        <p id="p-9d7adae292c6">La razón es que dependiendo de la forma de aprender de cada aprendiz una presentación u otra de la misma tarea será más o menos efectiva en su proceso de aprendizaje. En esta línea, los estudios de análisis multicanal (Azevedo &amp; Gašević, 2019; Taub et al., 2017) han concluido que las tareas que se ofrecen a través de un canal dual (visual y auditivo) incrementan la carga cognitiva en el procesamiento de la información (Souchet et al., 2022). Asimismo, las tareas que se presentan en vídeo y que exigen la aplicación de un conocimiento procedimental suponen una mayor carga cognitiva para el estudiante (Pi &amp; Hong, 2016). De otro lado, parece que la inclusión de gráficos o de esquemas en las tareas disminuye la carga cognitiva y facilita la comprensión (Fiorella, 2022).  No obstante, para la interpretación de estos resultados se precisa aplicar técnicas de EDM, seguidamente se describen las más significativas.</p>
      </sec>
      <sec>
        <title id="t-8d9e332cd22f">
          <bold id="s-813f97289fbc">¿Qué resultados ofrece la utilización de técnicas de EDM para la interpretación de los resultados hallados con la tecnología de seguimiento ocular durante el proceso de enseñanza-aprendizaje?</bold>
        </title>
        <p id="t-b23d0a2c6ca6">Las técnicas de EDM se pueden definir como la aplicación de técnicas de Minería de Datos (MD) en el ámbito educativo (Chango et al., 2022). Específicamente, las técnicas de MD utilizan parte de las técnicas de Aprendizaje Automático. Dentro de estas últimas se diferencian las supervisadas que incluyen las técnicas de predicción (Seinen et al., 2022) y las de clasificación (Díez-Pastor et al., 2014); y las técnicas no supervisadas, entre las que se encuentran las de «clustering» (Sáiz-Manzanares et al., 2021a). En la Tabla 2 se puede consultar una relación de las técnicas de EDM más significativas en el ámbito educativo.</p>
      </sec>
      <sec>
        <title id="t-dbfd1b733fe0">
          <bold id="s-33451af114da">¿Presenta la utilización de la tecnología de seguimiento ocular nuevos retos éticos en su aplicación en el proceso de enseñanza-aprendizaje?</bold>
        </title>
        <p id="t-41f71e6caad0">Evidentemente el registro en el que se incluye la grabación de las ejecuciones del estudiantado durante la realización de tareas conlleva retos éticos. Estos se centran en la necesaria autorización por parte del estudiante para participar en este tipo de enseñanza. Esta autorización conlleva recelos añadidos, ya que se graba una ejecución y esta puede incluir también la imagen. Por ello, este procedimiento de trabajo podría producir sesgos respecto de la autorización de unos estudiantes sobre otros. La razón es que los estudiantes que participasen en esta propuesta docente recibirían una retroalimentación para mejorar su patrón de conductas de aprendizaje y los no participantes no. Este aspecto indudablemente generaría una situación de brecha de desigualdad en la intervención pedagógica. Esta podría conllevar un incremento en las diferencias de rendimiento académico de los estudiantes que no aceptasen participar en este tipo de propuesta docente.</p>
        <p id="clipboard_property">En síntesis, la utilización de la tecnología de seguimiento ocular tiene una aplicabilidad prometedora en el ámbito educativo, ya que va a permitir al profesorado obtener registros sobre la forma de procesar información en sus estudiantes. Asimismo, en función del análisis de dichos registros, el docente podrá conocer los patrones de conducta durante el aprendizaje. Toda esta información previsiblemente ayudará al profesorado en la personalización del diseño de las tareas de aprendizaje, lo que facilitará una respuesta educativa adaptada a las necesidades de cada estudiante. Este aspecto facilitará la atención a la diversidad y previsiblemente fomentará una mayor inclusión académica. Atendiendo a lo anteriormente señalado, las preguntas de investigación (PI) de este trabajo fueron:</p>
        <list list-type="bullet">
          <list-item id="li-bdf9b47d15d1">
            <p>PI1: ¿se hallarán diferencias significativas entre estudiantes con y sin conocimientos previos en los parámetros de carga cognitiva (FC, FD, SC, PD, VC)  y en los resultados de aprendizaje (RA)?</p>
          </list-item>
          <list-item id="li-bd3565a0eb4f">
            <p>PI2: ¿habrá clústeres de patrones de conductas de aprendizaje diferenciados entre los estudiantes?</p>
          </list-item>
          <list-item id="li-f64e4b897bc8">
            <p>PI3: ¿se encontrarán los patrones de conductas de aprendizaje más eficaces vs. menos eficaces?</p>
          </list-item>
        </list>
      </sec>
    </sec>
    <sec>
      <title id="t-c3c712018fba">Material y métodos</title>
      <sec>
        <title id="t-671e75775421">
          <bold id="s-0f511602784d">Participantes</bold>
        </title>
        <p id="t-b0768a9063e6">Se trabajó con una muestra no probabilística de conveniencia (fundamentada en la aceptación de la participación en el estudio) de 20 estudiantes universitarios de tres universidades: 7 de la Universidad de Burgos (UBU) (3 mujeres M<sub id="subscript-1">edad</sub>=22 años, DT<sub id="subscript-2">edad</sub>=2,00; 4 hombres M<sub id="subscript-3">edad</sub>=21 años, DT<sub id="subscript-4">edad</sub>=1,41) 11 de la Universidad de Valladolid (UVA) (8 mujeres M<sub id="subscript-5">edad</sub>=22,38 años, DT<sub id="subscript-6">edad</sub>=2,77; 3 hombres M<sub id="subscript-7">edad</sub>=24 años, DT<sub id="subscript-8">edad</sub>=1,00) y 2 de la Universidad de Miño en Portugal (UMINHO) (2 mujeres M<sub id="subscript-9">edad</sub>=21,50 años, DT<sub id="subscript-10">edad</sub>=0,70).</p>
        <p id="p-73f89053d0e2">Se diferenció entre estudiantado con y sin conocimientos previos, dicha diferenciación se efectuó atendiendo a la rama de conocimiento del estudiantado. Se consideraron estudiantes con conocimientos previos a estudiantes que cursaban estudios de Historia del Arte (n=7) y estudiantes sin conocimientos previos a estudiantes que cursaban estudios de Psicología (n=5) y Educación (n=8).</p>
      </sec>
      <sec>
        <title id="t-50a62ef06c6f">
          <bold id="s-f3c16dfd9ff5">Instrumentos</bold>
        </title>
        <p id="t-ecfbe5d26ab4">a) Equipo Tobii Pro Lab versión 1.194.41215 y monitor de 15,6 pulgadas con una resolución de 1920 X 1080. En este estudio se aplicaron 64 Hz. En este estudio se utilizaron métricas estáticas que se analizaron con el paquete de software estadístico SPSS v. 28 (IBM, 2022). También, se hallaron métricas dinámicas a través del «gaze point» que ofrece Tobbi y se utilizó Orange 3.33.0 para la generación de gráficos de tipo mapa de calor.</p>
        <p id="p-2f2912551e8e">b) Estímulos aplicados en la tecnología de seguimiento ocular. Se utilizó un vídeo autorregulado sobre la evolución de los monasterios en Europa. Una voz iba locutando la información haciendo inflexiones de voz sobre los datos más importantes. Asimismo, se incluyeron en el vídeo esquemas y gráficos que sintetizaban el contenido más relevante. La información para elaborar el vídeo se extrajo del «Kit de herramientas para la transferencia del proyecto SmartArt» esta documentación se puede consultar en https://bit.ly/3CPkEwq. El proyecto «SmartArt» fue cofinanciado por la Unión Europea (la información se puede consultar en  http://bit.ly/3kLeF5J). Asimismo, el vídeo utilizado en este estudio está disponible en  http://bit.ly/3VzdMd9. En dicho vídeo se diferenciaron las siguientes AOI: 1 AOI no relevante- AOI_NR1- (imagen de un avatar), y 3 AOI relevantes: AOI Relevante 1 -AOI R1- (esquema de los conceptos relevantes); AOI Relevante 2 -AOI R2- (síntesis del contenido más relevante locutado) y AOI Relevante 3 -AOI R3- (conceptos clave de la información locutada).  Un ejemplo de la definición de las AOI se puede consultar en la Figura 1.</p>
        <fig id="f-7c5650d0e237" orientation="portrait" fig-type="graphic" position="anchor">
          <label>Figure 0 </label>
          <graphic id="g-97429026682c" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/45ca9e51-cf41-4e1d-ae08-06d02107ca98/image/f4c1aac0-ce9b-400e-ba3c-a961688fe034-u03-03.png"/>
        </fig>
        <p id="p-39ab5f914af2">c) Prueba de conocimientos sobre los conceptos vistos en el vídeo. Esta prueba constaba de 9 preguntas sobre los conceptos más referenciales trabajados en el vídeo. Las preguntas se extrajeron del «Kit de herramientas para la transferencia del proyecto SmartArt». En concreto, se aplicaron las 9 primeras preguntas del «Cuestionario de autoevaluación 1. Nivel básico» (p. 63-64) que pueden consultarse en https://bit.ly/3CPkEwq.</p>
      </sec>
      <sec>
        <title id="t-71d217872cdf">
          <bold id="s-e54f707788e4">Procedimiento</bold>
        </title>
        <p id="t-d2657b10a260">Previamente a la realización del estudio se obtuvo el informe positivo del Comité de Bioética de la UBU (IR 27/2019). Seguidamente, se ofreció a estudiantes universitarios de la UBU, UVA y UMINHO la posibilidad de participar en este estudio. A continuación, el estudiantado que aceptó firmó un consentimiento informado de participación voluntaria sin compensación. La fase experimental se realizó de forma individualizada con cada participante en dos salas (una en la UBU y otra en la UVA) en las cuales se controlaron las condiciones de luminosidad y de ausencia de estímulos distractores. El experimento fue aplicado en todos los casos por la misma investigadora experta en el uso de esta tecnología.</p>
      </sec>
      <sec>
        <title id="t-c397d276b382">
          <bold id="s-d324ff2cd1b8">Diseños de investigación</bold>
        </title>
        <p id="t-98231b470bae">Este trabajo se enmarca dentro de un estudio exploratorio. Para contrastar la PI1 dadas las características de la muestra se aplicó un diseño cuasiexperimental sin grupo control donde la variable independiente fue «conocimientos previos sobre Historia del Arte» y las variables dependientes fueron los parámetros de carga cognitiva y los resultados de aprendizaje. Asimismo, para contrastar las PI2 y PI3 se aplicó un diseño descriptivo (Campbell &amp; Stanley, 2005).</p>
      </sec>
      <sec>
        <title id="t-172753058d28">
          <bold id="s-4e6c2ae774f2">Análisis de datos</bold>
        </title>
        <p id="t-440ad96b545b">Al utilizarse un muestreo no probabilístico de conveniencia y ser la muestra inferior a 30 participantes se utilizó para el contraste de las IP estadística no paramétrica. Para contrastar la PI1 se aplicó la prueba U de Mann-Whitney y se calculó el tamaño del efecto no paramétrico r tomando como puntos de corte: (a) hasta 0,30, bajo; (b) de 0,30 a 0,50 medio; y (c) superior a 0,50 alto. Para ello, se utilizó el paquete estadístico SPSS v. 28 (IBM Corp, 2022). Para contrastar la PI2 se aplicó la prueba de análisis de clústeres de k-means que se realizó con el paquete estadístico SPSS v. 28 (IBM Corp, 2022). También, se utilizaron técnicas de visualización de mapas de calor y de «clustering» para ello se utilizó el software de Aprendizaje Automático y de técnicas de visualización de datos Orange 3.33.0 (Demšar et al., 2013). Finalmente, para contrastar la PI3 se utilizó la visualización de análisis de patrones («gaze point») que ofrece Tobii Pro Lab versión 1.194.41215. </p>
      </sec>
    </sec>
    <sec>
      <title id="t-81c5bd553860">Análisis y resultados</title>
      <p id="t-06268880bc7f">Respecto de la PI1 no se hallaron diferencias estadísticamente significativas entre el estudiantado con y sin conocimientos previos respecto de los parámetros de análisis de la carga cognitiva (FC, FD, SC, PD, VC). No obstante, se apreció una tendencia a la diferencia (p=0,06) en SC_AOI_R2 (este parámetro hace referencia a la transición de la sacada en la información de síntesis del contenido más relevante locutado). Asimismo, se hallaron diferencias significativas entre ambos grupos respecto de los resultados de aprendizaje [U=20, p=0,03, con un tamaño del efecto medio, r=0,49]. Los estudiantes con conocimientos previos experimentaron una mayor puntuación (Mediana (Mdn)=5) en relación a los estudiantes sin conocimientos previos (Mdn=2), ver Tabla 1.</p>
      <fig id="f-e1435def0222" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 0 </label>
        <graphic id="g-d042853ae271" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/45ca9e51-cf41-4e1d-ae08-06d02107ca98/image/732bad9f-bfa4-47e5-ad94-5623cfe844e2-u03-04.png"/>
      </fig>
      <p id="p-6a43d7464294">Seguidamente, para contrastar la PI2 se realizó un análisis de clústeres utilizando el algoritmo de k-<italic id="emphasis-1"> </italic> means. Previamente, para estimar el número de clústeres se aplicó el método del codo (los resultados se pueden comprobar en https://bit.ly/3W0Qe0Q). Se hallaron dos clústeres de agrupamiento respecto de las variables consideradas en la Tabla 3. En la Figura 2, se puede comprobar la visualización de la distribución de los estudiantes en cada uno de los clústeres. La técnica de Aprendizaje Automático no supervisada, k-means, permite visualizar la posición de cada estudiante en cada clúster sin aplicar a priori una variable de agrupamiento. Este hecho permite detectar variables de agrupamiento no establecidas previamente. El análisis de clústeres se puede consultar en la Tabla 4 disponible en la plataforma Figshare (http://bit.ly/3JiNrNf). </p>
      <fig id="f-6bc6328e34ea" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 0 </label>
        <graphic id="g-d2264cc981e6" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/45ca9e51-cf41-4e1d-ae08-06d02107ca98/image/071d7f53-14f5-422e-8d74-b221ed57907a-u03-05.png"/>
      </fig>
      <p id="p-4dd402961ece">En el ANOVA efectuado entre los clústeres se hallaron diferencias significativas en: FC_AOI_R1  (F=12,98, p=0,00), concretamente las puntuaciones más altas se registraron en el clúster 2. Este resultado indica que los estudiantes que forman parte de este clúster pueden tener dificultad para discriminar información relevante vs. no relevante en la tarea propuesta; FD_AOI_NR1 (F=9,79, p=0,01) las puntuaciones más altas también se registraron en el clúster 2, lo que indica que los estudiantes que forman parte de este clúster prestaron más atención a la información del AOI no relevante; FD_AOI_R1 (F=10,13, p=0,01) las puntuaciones más altas se encontraron en los estudiantes que formaban parte del clúster 1. Este resultado puede ser un indicador de que estos estudiantes prestaron más atención a este estímulo; VC_AOI_R1 (F=5,74, p=0,03) las puntuaciones más altas se hallaron en los estudiantes que formaban parte del clúster 1, lo que puede ser un indicador de un interés mayor en estos estudiantes en el AOI relevante 1; SC_AOI_NR1 R1 (F=14,55, p=0,00) se encontró un mayor número de sacadas en los estudiantes que formaban parte del clúster 1. Este resultado se puede explicar desde un mayor uso de las respuestas de orientación en estos estudiantes que puede relacionarse con un mayor esfuerzo cognitivo para la discriminación de información relevante vs. no relevante; SC_AOI_R1 (F=22,43, p=0,00) se registró un mayor número de sacadas en los estudiantes que formaban parte del clúster 1. Este resultado se puede relacionar con un mayor esfuerzo cognitivo de dichos estudiantes respecto de la información de AOI relevante 1. Finalmente, es importante destacar que se observó una tendencia a la diferencia en FD_AOI_R2 (p=0,05) y FD_AOI_R3 (p=0,05). La FD fue mayor en los estudiantes del clúster 2, lo que puede ser un indicador de un mayor esfuerzo cognitivo en este grupo respecto de la información en AOI relevante 2 y relevante 3.</p>
      <p id="p-9a0750063ff9">Seguidamente, para comprobar la PI3 se efectuó un análisis de visualización de los patrones de conductas de aprendizaje en los estudiantes atendiendo a los resultados hallados en el análisis de clústeres (Figura 2).</p>
      <p id="p-e4ba0eb8c671">A modo de ejemplo se presenta una comparativa del «gaze point» entre un estudiante del clúster 1 y un estudiante del clúster 2 (Figura 3). En dicha comparativa, la ruta seguida por el estudiante del clúster 1 tiene una menor desviación del seguimiento de la información que se presenta en el vídeo que la realizada por el estudiante del clúster 2, en cuya ruta se aprecia una mayor dispersión (el trayecto del seguimiento ocular sale del marco de la presentación de la información).</p>
      <fig id="f-7025fc183c90" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 0 </label>
        <graphic id="g-dccc5454200c" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/45ca9e51-cf41-4e1d-ae08-06d02107ca98/image/daf83622-b1e7-4e67-83d8-d23e76d62d1a-u03-06.png"/>
      </fig>
    </sec>
    <sec>
      <title id="t-b9b9615e0ea1">Discusión y conclusiones</title>
      <p id="t-c3c03b23bf14">La utilización de recursos neurotecnológicos, p. ej. la tecnología de seguimiento ocular, puede ofrecer a la docencia del siglo XXI un abanico de oportunidades prometedor. Entre las ventajas destaca el registro de las conductas de aprendizaje durante la resolución de distinto tipo de tareas. Específicamente, la tecnología de seguimiento ocular facilita información sobre la atención y el esfuerzo cognitivo del estudiantado (Asadi et al., 2022; Kulomäki et al., 2022; Rodziewicz-Cybulska et al., 2022; Taub &amp; Azevedo, 2019) durante la resolución de tareas (Ollesch et al., 2021). Asimismo, dicha tecnología puede registrar las conductas de aprendizaje de un estudiante respecto de la información relevante vs. no relevante en las AOI definidas previamente por el profesorado. También, puede facilitar información sobre el patrón de resolución de cada estudiante (Coskun &amp; Cagiltay, 2022; Merchie et al., 2022; Tsai et al., 2022). Posteriormente, el profesorado podrá conocer los patrones más efectivos vs. menos efectivos en cada tarea (Feng &amp; Law, 2021; McLeod et al., 2022; Ollesch et al., 2021; Tsai et al., 2022; Yang &amp; Wang, 2023). La efectividad se concretará en función de los resultados de aprendizaje obtenidos por cada estudiante. Esta comparativa podrá servir de referente al docente para elaborar propuestas educativas personalizadas (Sáiz-Manzanares et al., 2021b). Este avance es importante, ya que mitiga la subjetividad que puede estar asociada a la realización de observaciones del proceso de aprendizaje en contextos naturales en las que no se emplean recursos tecnológicos y de medición. No obstante, este logro que puede parecer idílico no está exento de hándicaps. Actualmente, aunque la tecnología de seguimiento ocular ha avanzado mucho en funcionalidad aún precisa para la interpretación de los registros la utilización de técnicas de EDM (Chango et al., 2022; Feng &amp; Law, 2021). Este aspecto supone un reto para el docente o para las instituciones que quieran aplicar esta tecnología.</p>
      <p id="p-333ba15b7059">En este estudio se ha mostrado un ejemplo de la funcionalidad de la utilización de la tecnología de seguimiento ocular en el análisis del proceso de aprendizaje de estudiantes universitarios durante la visualización de un vídeo y su relación con los resultados de aprendizaje. En síntesis, los resultados hallados indican que los conocimientos previos parecen no ser relevantes en una tarea de vídeo autorregulado respecto de los parámetros de carga cognitiva y sí respecto de los resultados de aprendizaje. Estas conclusiones están en la línea de lo hallado en las investigaciones de Fiorella (2022). No obstante, se ha encontrado que otras variables no definidas previamente parecen estar influyendo en los indicadores de esfuerzo cognitivo (FC, FD, SC, PD, VC). Los estudiantes de uno de los clústeres parece que utilizan más técnicas de reflexión y centran su atención en la información más relevante inhibiendo la menos relevante, frente a otro grupo de estudiantes que parece tener más problemas para centrar la atención en la información relevante. En concreto, estas diferencias se dieron en la AOI definida como no relevante y en una AOI relevante relacionada con la información de esquemas. Estos resultados son importantes para el docente, ya que le orientan a cómo elaborar materiales de enseñanza más ajustados a las características de aprendizaje detectadas en cada uno de los clústeres. Posteriormente, en estudios futuros se deberían analizar cuáles son las características de los estudiantes asignados a cada clúster con el fin de detectar las variables que pueden explicar el agrupamiento. Asimismo, en este estudio se ha mostrado un ejemplo de detección de los patrones de conductas de aprendizaje en distinto tipo de estudiantes que previamente se habían agrupado en clústeres. Esta funcionalidad resulta significativa para la docencia, ya que el estudio de cada patrón servirá para conocer dónde se sitúan las dificultades de aprendizaje de cada estudiante y, en función de estas, el docente podrá ofrecer orientaciones personalizadas a cada uno de ellos (Chango et al., 2022; Molina et al., 2017; Sáiz-Manzanares et al., 2021b). No obstante, los resultados hallados en este estudio se tienen que leer con prudencia, ya que se trabajó con una muestra reducida y de conveniencia por lo que la generalización de dichos resultados está limitada. Si bien, el objetivo último de este trabajo ha sido mostrar posibles aplicaciones y retos del uso de la tecnología de seguimiento ocular en contextos educativos universitarios.</p>
      <p id="p-28dc6d0b784f">En síntesis, el análisis de los datos que se recogen con la tecnología de seguimiento ocular tiene un gran potencial para lograr una enseñanza de precisión. No obstante, queda un largo camino para su implantación fluida en contextos naturales. (<xref id="x-365219b9cc46" rid="" ref-type="bibr">1</xref>) </p>
    </sec>
  </body>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="R192201327964815">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Souchet</surname>
              <given-names>A D</given-names>
            </name>
            <name>
              <surname>Philippe</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Lourdeaux</surname>
              <given-names>D</given-names>
            </name>
            <name>
              <surname>Leroy</surname>
              <given-names>L</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Measuring Visual Fatigue and Cognitive Load via Eye Tracking while Learning with Virtual Reality Head-Mounted Displays: A Review</article-title>
          <source>International Journal of Human-Computer Interaction</source>
          <year>2022</year>
          <volume>38</volume>
          <issue>9</issue>
          <fpage>801</fpage>
          <lpage>824</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1080/10447318.2021.1976509</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964816">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Yang</surname>
              <given-names>F Y</given-names>
            </name>
            <name>
              <surname>Wang</surname>
              <given-names>H Y</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Tracking visual attention during learning of complex science concepts with augmented 3D visualizations</article-title>
          <source>Computers &amp; Education</source>
          <year>2023</year>
          <volume>193</volume>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.compedu.2022.104659</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964817">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Azevedo</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Gašević</surname>
              <given-names>D</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Analyzing multimodal multichannel data about self-regulated learning with advanced learning technologies: Issues and challenges</article-title>
          <source>Computers in Human Behavior</source>
          <year>2019</year>
          <volume>96</volume>
          <fpage>207</fpage>
          <lpage>210</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.chb.2019.03.025</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964818">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Kulomäki</surname>
              <given-names>J</given-names>
            </name>
            <name>
              <surname>Oksama</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Rantanen</surname>
              <given-names>E</given-names>
            </name>
            <name>
              <surname>Hyönä</surname>
              <given-names>J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Attention control in a demanding dynamic time-sharing environment: An eye-tracking study</article-title>
          <source>Attention, Perception, and Psychophysics</source>
          <year>2022</year>
          <volume>84</volume>
          <fpage>352</fpage>
          <lpage>371</lpage>
          <uri>https://doi.org/10.3758/s13414-021-02377-z</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964819">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Taub</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Azevedo</surname>
              <given-names>R</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>How Does Prior Knowledge Influence Eye Fixations and Sequences of Cognitive and Metacognitive SRL Processes during Learning with an Intelligent Tutoring System?</article-title>
          <source>International Journal of Artificial Intelligence in Education</source>
          <year>2019</year>
          <volume>29</volume>
          <issue>1</issue>
          <fpage>1</fpage>
          <lpage>28</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1007/s40593-018-0165-4</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964820">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Merchie</surname>
              <given-names>E</given-names>
            </name>
            <name>
              <surname>Heirweg</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Van-Keer</surname>
              <given-names>H</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Mind maps: Processed as intuitively as thought? Investigating late elementary students’ eye-tracked visual behavior patterns in-depth</article-title>
          <source>Frontiers in Psychology</source>
          <year>2022</year>
          <volume>13</volume>
          <fpage>1</fpage>
          <lpage>18</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3389/fpsyg.2022.821768</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964821">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Chemerys</surname>
              <given-names>H Y</given-names>
            </name>
            <name>
              <surname>Ponomarenko</surname>
              <given-names>O V</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Opportunities and prospects for personalizing the user interface of the educational platform in accordance with the personality psychotypes</article-title>
          <source>Advances in Computational Design</source>
          <year>2022</year>
          <volume>7</volume>
          <fpage>139</fpage>
          <lpage>151</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.12989/acd.2022.7.2.139</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964822">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Prokop</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Pilař</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Tichá</surname>
              <given-names>I</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Impact of think-aloud on eye-tracking: A comparison of concurrent and retrospective think-aloud for research on decision-making in the game environment</article-title>
          <source>Sensors</source>
          <year>2020</year>
          <issue>10</issue>
          <fpage>20</fpage>
          <lpage>20</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3390/s20102750</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964823">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Molina</surname>
              <given-names>A I</given-names>
            </name>
            <name>
              <surname>Navarro</surname>
              <given-names>Ó</given-names>
            </name>
            <name>
              <surname>Lacruz</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Ortega</surname>
              <given-names>M</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>El empleo de técnicas de seguimiento ocular para evaluar materiales educativos en Educación Primaria</article-title>
          <source>Revista de Educación</source>
          <year>2017</year>
          <volume>376</volume>
          <fpage>87</fpage>
          <lpage>109</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.4438/1988-592X-RE-2017-376-345 </object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964824">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Kuhnel</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Seiler</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Honal</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Ifenthaler</surname>
              <given-names>D</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Mobile learning analytics in higher education: Usability testing and evaluation of an app prototype</article-title>
          <source>Interactive Technology and Smart Education</source>
          <year>2018</year>
          <volume>15</volume>
          <fpage>332</fpage>
          <lpage>347</lpage>
          <uri>https://doi.org/10.1108/ITSE-04-2018-0024</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964825">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Sáiz-Manzanares</surname>
              <given-names>M C</given-names>
            </name>
            <name>
              <surname>Pérez</surname>
              <given-names>I R</given-names>
            </name>
            <name>
              <surname>Rodríguez</surname>
              <given-names>A A</given-names>
            </name>
            <name>
              <surname>Arribas</surname>
              <given-names>S R</given-names>
            </name>
            <name>
              <surname>Almeida</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Martin</surname>
              <given-names>C F</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Analysis of the learning process through eye tracking technology and feature selection techniques</article-title>
          <source>Applied Sciences</source>
          <year>2021a</year>
          <issue>13</issue>
          <fpage>11</fpage>
          <lpage>11</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3390/app11136157</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964826">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Shojaeizadeh</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Djamasbi</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Paffenroth</surname>
              <given-names>R C</given-names>
            </name>
            <name>
              <surname>Trapp</surname>
              <given-names>A C</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Detecting task demand via an eye tracking machine learning system</article-title>
          <source>Decision Support Systems</source>
          <year>2019</year>
          <volume>116</volume>
          <fpage>91</fpage>
          <lpage>101</lpage>
          <uri>https://doi.org/10.1016/j.dss.2018.10.012</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964827">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Asadi</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Saeedpour-Parizi</surname>
              <given-names>M R</given-names>
            </name>
            <name>
              <surname>Aiken</surname>
              <given-names>C A</given-names>
            </name>
            <name>
              <surname>Jahanbani</surname>
              <given-names>Z</given-names>
            </name>
            <name>
              <surname>Houminiyan-Sharif-Abadi</surname>
              <given-names>D</given-names>
            </name>
            <name>
              <surname>Simpson</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Marchant</surname>
              <given-names>D</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Effects of attentional focus and cognitive load on novice dart throwing: Evidence from quiet eye duration and pupillary responses</article-title>
          <source>Human Movement Science</source>
          <year>2022</year>
          <volume>86</volume>
          <fpage>103015</fpage>
          <lpage>103015</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.humov.2022.103015</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964828">
        <element-citation publication-type="book">
          <person-group person-group-type="author">
            <name>
              <surname>Corp</surname>
              <given-names> Ibm</given-names>
            </name>
            <collab/>
          </person-group>
          <person-group person-group-type="editor"/>
          <source>SPSS Statistical Package for the Social Sciences (SPSS) (Versión 28)</source>
          <publisher-name>[Software]. IBM</publisher-name>
          <year>2022</year>
          <uri>https://ibm.co/3hWIls7</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964829">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Rother</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Spliopoulou</surname>
              <given-names>M</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Virtual reality for medical annotation tasks: A systematic review</article-title>
          <source>Frontiers in Virtual Reality</source>
          <year>2022</year>
          <volume>3</volume>
          <fpage>1</fpage>
          <lpage>12</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3389/frvir.2022.717383</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964830">
        <element-citation publication-type="book">
          <person-group person-group-type="author">
            <name>
              <surname>Campbell</surname>
              <given-names>D F</given-names>
            </name>
            <name>
              <surname>Stanley</surname>
              <given-names>J</given-names>
            </name>
            <collab/>
          </person-group>
          <person-group person-group-type="editor"/>
          <source>Diseños experimentales y cuasiexperimentales en la investigación social</source>
          <publisher-name>Amorrortu</publisher-name>
          <year>2005</year>
          <uri>https://bit.ly/3JJDubN</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964831">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Bogarín</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Cerezo</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Romero</surname>
              <given-names>C</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>A survey on educational process mining</article-title>
          <source>Wiley Interdisciplinary Reviews</source>
          <year>2018</year>
          <volume>8</volume>
          <issue>1</issue>
          <object-id pub-id-type="doi">https://doi.org/10.1002/widm.1230</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964832">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Fiorella</surname>
              <given-names>L</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Learning by explaining after pauses in video lectures: Are provided visuals a scaffold or a crutch?</article-title>
          <source>Applied Cognitive Psychology</source>
          <year>2022</year>
          <volume>36</volume>
          <issue>5</issue>
          <fpage>1142</fpage>
          <lpage>1149</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1002/acp.3994</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964833">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Demšar</surname>
              <given-names>J</given-names>
            </name>
            <name>
              <surname>Curk</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Erjavec</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Gorup</surname>
              <given-names>C</given-names>
            </name>
            <name>
              <surname>Hočevar</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Milutinovic</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Možina</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Polajnar</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Toplak</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Starič</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Štajdohar</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Umek</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Žagar</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Žbontar</surname>
              <given-names>J</given-names>
            </name>
            <name>
              <surname>Zitnik</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Zupan</surname>
              <given-names>B</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Orange: data mining toolbox in Python</article-title>
          <source>The Journal of Machine Learning Research</source>
          <year>2013</year>
          <volume>14</volume>
          <issue>1</issue>
          <fpage>2349</fpage>
          <lpage>2353</lpage>
          <uri>https://bit.ly/3yNtGHi</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964834">
        <element-citation publication-type="book">
          <person-group person-group-type="author">
            <name>
              <surname>Elliott</surname>
              <given-names>L J</given-names>
            </name>
            <name>
              <surname>Lum</surname>
              <given-names>H C</given-names>
            </name>
            <name>
              <surname>Aqlan</surname>
              <given-names>F</given-names>
            </name>
            <name>
              <surname>Zhao</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Lasher</surname>
              <given-names>C D</given-names>
            </name>
            <collab/>
          </person-group>
          <person-group person-group-type="editor"/>
          <article-title>A Study of Metacognitive Problem Solving in Undergraduate Engineering Students</article-title>
          <source>Advances in Intelligent Systems and Computing</source>
          <publisher-name>Springer International Publishing</publisher-name>
          <year>2020</year>
          <fpage>95</fpage>
          <lpage>102</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1007/978-3-030-20135-7_9</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964835">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Alemdag</surname>
              <given-names>E</given-names>
            </name>
            <name>
              <surname>Cagiltay</surname>
              <given-names>K</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>A systematic review of eye tracking research on multimedia learning</article-title>
          <source>Computers and Education</source>
          <year>2018</year>
          <volume>125</volume>
          <fpage>413</fpage>
          <lpage>428</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.compedu.2018.06.023</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964836">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Sáiz-Manzanares</surname>
              <given-names>M C</given-names>
            </name>
            <name>
              <surname>Payo-Hernanz</surname>
              <given-names>R J</given-names>
            </name>
            <name>
              <surname>Zaparaín-Yáñez</surname>
              <given-names>M J</given-names>
            </name>
            <name>
              <surname>Andrés-López</surname>
              <given-names>G</given-names>
            </name>
            <name>
              <surname>Marticorena-Sánchez</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Calvo-Rodríguez</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Martín</surname>
              <given-names>C</given-names>
            </name>
            <name>
              <surname>Rodríguez-Arribas</surname>
              <given-names>S</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Eye-tracking technology and data-mining techniques used for a behavioral analysis of adults engaged in learning processes</article-title>
          <source>Journal of Visualized Experiments</source>
          <year>2021b</year>
          <volume>172</volume>
          <fpage>1</fpage>
          <lpage>16</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3791/62103</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964837">
        <element-citation publication-type="book">
          <person-group person-group-type="author">
            <name>
              <surname/>
              <given-names>Joe-Louis-Paul</given-names>
            </name>
            <name>
              <surname>Sasirekha</surname>
              <given-names>I</given-names>
            </name>
            <name>
              <surname>Uma-Maheswari</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Ajith</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Arjun</surname>
              <given-names>K A M</given-names>
            </name>
            <name>
              <surname>Athesh-Kumar</surname>
              <given-names>S M</given-names>
            </name>
            <name>
              <surname/>
              <given-names>S</given-names>
            </name>
            <collab/>
          </person-group>
          <person-group person-group-type="editor">
            <name>
              <surname/>
              <given-names>S. Fong</given-names>
            </name>
            <name>
              <surname/>
              <given-names>S. Akashe</given-names>
            </name>
            <name>
              <surname/>
              <given-names>P.N. Mahalle</given-names>
            </name>
          </person-group>
          <article-title>Eye Gaze Tracking-Based Adaptive E-learning for Enhancing Teaching and Learning in Virtual Classrooms</article-title>
          <source>Information and Communication Technology for Competitive Strategies </source>
          <publisher-name>Springer</publisher-name>
          <year>2019</year>
          <fpage>165</fpage>
          <lpage>176</lpage>
          <uri>https://doi.org/10.1007/978-981-13-0586-3</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964838">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Thees</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Altmeyer</surname>
              <given-names>K</given-names>
            </name>
            <name>
              <surname>Kapp</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Rexigel</surname>
              <given-names>E</given-names>
            </name>
            <name>
              <surname>Beil</surname>
              <given-names>F</given-names>
            </name>
            <name>
              <surname>Klein</surname>
              <given-names>P</given-names>
            </name>
            <name>
              <surname>Malone</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Brünken</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Kuhn</surname>
              <given-names>J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Augmented reality for presenting real-time data during students’ laboratory work: comparing a head-mounted display with a separate display</article-title>
          <source>Frontiers in Psychology</source>
          <year>2022</year>
          <volume>13</volume>
          <fpage>1</fpage>
          <lpage>16</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3389/fpsyg.2022.804742</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964839">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Diwanji</surname>
              <given-names>V S</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Improving accessibility and inclusiveness of university websites for international students: a mixed-methods usability assessment</article-title>
          <source>Technology, Pedagogy and Education</source>
          <year>2022</year>
          <volume>32</volume>
          <fpage>1</fpage>
          <lpage>26</lpage>
          <uri>https://doi.org/10.1080/1475939X.2022.2089724</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964840">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Taub</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Mudrick</surname>
              <given-names>N V</given-names>
            </name>
            <name>
              <surname>Azevedo</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Millar</surname>
              <given-names>G C</given-names>
            </name>
            <name>
              <surname>Rowe</surname>
              <given-names>J</given-names>
            </name>
            <name>
              <surname>Lester</surname>
              <given-names>J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Using multi-channel data with multi-level modeling to assess in-game performance during gameplay with Crystal Island</article-title>
          <source>Computers in Human Behavior</source>
          <year>2017</year>
          <volume>76</volume>
          <fpage>641</fpage>
          <lpage>655</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.chb.2017.01.038</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964841">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Kao</surname>
              <given-names>G Y M</given-names>
            </name>
            <name>
              <surname>Chiang</surname>
              <given-names>X Z</given-names>
            </name>
            <name>
              <surname>Foulsham</surname>
              <given-names>T</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Reading behavior and the effect of embedded selfies in role-playing picture e-books: An eye-tracking investigation</article-title>
          <source>Computers and Education</source>
          <year>2019</year>
          <volume>136</volume>
          <fpage>99</fpage>
          <lpage>112</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.compedu.2019.03.010</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964842">
        <element-citation publication-type="book">
          <person-group person-group-type="author">
            <name>
              <surname>Rodziewicz-Cybulska</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Krejtz</surname>
              <given-names>K</given-names>
            </name>
            <name>
              <surname>Duchowski</surname>
              <given-names>A T</given-names>
            </name>
            <name>
              <surname>Krejtz</surname>
              <given-names>I</given-names>
            </name>
            <collab/>
          </person-group>
          <person-group person-group-type="editor"/>
          <article-title>Measuring cognitive effort with pupillary activity and fixational eye movements when reading: longitudinal comparison of children with and without primary music education</article-title>
          <source>ETRA ’22: 2022 Symposium on Eye Tracking Research and Applications</source>
          <year>2022</year>
          <fpage>1</fpage>
          <lpage>18</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1145/3517031.3529636</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964843">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Schweizer</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Wyss</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Gilgen-Ammann</surname>
              <given-names>R</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Detecting soldiers’ fatigue using eye-tracking glasses: Practical field applications and research opportunities</article-title>
          <source>Military Medicine</source>
          <year>2022</year>
          <volume>187</volume>
          <issue>11-12</issue>
          <fpage>1330</fpage>
          <lpage>1337</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1093/milmed/usab509</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964844">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Seinen</surname>
              <given-names>T M</given-names>
            </name>
            <name>
              <surname>Fridgeirsson</surname>
              <given-names>E A</given-names>
            </name>
            <name>
              <surname>Ioannou</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Jeannetot</surname>
              <given-names>D</given-names>
            </name>
            <name>
              <surname>John</surname>
              <given-names>L H</given-names>
            </name>
            <name>
              <surname>Kors</surname>
              <given-names>J A</given-names>
            </name>
            <name>
              <surname>Markus</surname>
              <given-names>A F</given-names>
            </name>
            <name>
              <surname>Pera</surname>
              <given-names>V</given-names>
            </name>
            <name>
              <surname>Rekkas</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Williams</surname>
              <given-names>R D</given-names>
            </name>
            <name>
              <surname>Yang</surname>
              <given-names>C</given-names>
            </name>
            <name>
              <surname>Mulligen</surname>
              <given-names>E M Van</given-names>
            </name>
            <name>
              <surname>Rijnbeek</surname>
              <given-names>P R</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Use of unstructured text in prognostic clinical prediction models: A systematic review</article-title>
          <source>Journal of the American Medical Informatics Association</source>
          <year>2022</year>
          <volume>29</volume>
          <issue>7</issue>
          <fpage>1292</fpage>
          <lpage>1302</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1093/jamia/ocac058</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964845">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Van-Marlen</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Wermeskerken</surname>
              <given-names>M Van</given-names>
            </name>
            <name>
              <surname>Jarodzka</surname>
              <given-names>H</given-names>
            </name>
            <name>
              <surname>Van-Gog</surname>
              <given-names>T</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Effectiveness of eye movement modeling examples in problem solving: The role of verbal ambiguity and prior knowledge</article-title>
          <source>Learning and Instruction</source>
          <year>2018</year>
          <volume>58</volume>
          <fpage>274</fpage>
          <lpage>283</lpage>
          <uri>https://doi.org/10.1016/j.learninstruc.2018.07.005</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964846">
        <element-citation publication-type="book">
          <person-group person-group-type="author">
            <collab>Tobii Pro Lab (Ed.)</collab>
          </person-group>
          <person-group person-group-type="editor"/>
          <source>User Manual v.1.194</source>
          <year>2023</year>
          <uri>https://bit.ly/41KjHQm</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964847">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Seifert</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Cordier</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Orth</surname>
              <given-names>D</given-names>
            </name>
            <name>
              <surname>Courtine</surname>
              <given-names>Y</given-names>
            </name>
            <name>
              <surname>Croft</surname>
              <given-names>J L</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Role of route previewing strategies on climbing fluency and exploratory movements</article-title>
          <source>PLoS ONE</source>
          <year>2017</year>
          <volume>12</volume>
          <issue>4</issue>
          <fpage>1</fpage>
          <lpage>22</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1371/journal.pone.0176306</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964848">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Coskun</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Cagiltay</surname>
              <given-names>K</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>A systematic review of eye-tracking-based research on animated multimedia learning</article-title>
          <source>Journal of Computer Assisted Learning</source>
          <year>2022</year>
          <volume>38</volume>
          <issue>2</issue>
          <fpage>581</fpage>
          <lpage>598</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1111/jcal.12629</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964849">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Feng</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Law</surname>
              <given-names>N</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Mapping artificial intelligence in education research: A network-based keyword analysis</article-title>
          <source>International Journal of Artificial Intelligence in Education</source>
          <year>2021</year>
          <volume>31</volume>
          <fpage>277</fpage>
          <lpage>303</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1007/s40593-021-00244-4</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964850">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Díez-Pastor</surname>
              <given-names>J F</given-names>
            </name>
            <name>
              <surname>García-Osorio</surname>
              <given-names>C</given-names>
            </name>
            <name>
              <surname>Rodríguez</surname>
              <given-names>J J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Tree ensemble construction using a GRASP-based heuristic and annealed randomness</article-title>
          <source>Information Fusion</source>
          <year>2014</year>
          <volume>20</volume>
          <issue>1</issue>
          <fpage>189</fpage>
          <lpage>202</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.inffus.2014.01.009</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964851">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Luo</surname>
              <given-names>W</given-names>
            </name>
            <name>
              <surname>Zhou</surname>
              <given-names>R</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Can working memory task-related EEG biomarkers measure fluid intelligence and predict academic achievement in healthy children?</article-title>
          <source>Frontiers in Behavioral Neuroscience</source>
          <year>2020</year>
          <volume>14</volume>
          <fpage>1</fpage>
          <lpage>14</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3389/fnbeh.2020.00002</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964852">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Chango</surname>
              <given-names>W</given-names>
            </name>
            <name>
              <surname>Lara</surname>
              <given-names>J A</given-names>
            </name>
            <name>
              <surname>Cerezo</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Romero</surname>
              <given-names>C</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>A review on data fusion in multimodal learning analytics and educational data mining</article-title>
          <source>Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery</source>
          <year>2022</year>
          <volume>12</volume>
          <issue>4</issue>
          <fpage>1</fpage>
          <lpage>19</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1002/widm.1458</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964853">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Ollesch</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Heimbuch</surname>
              <given-names>S</given-names>
            </name>
            <name>
              <surname>Bodemer</surname>
              <given-names>D</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Improving learning and writing outcomes: Influence of cognitive and behavioral group awareness tools in wikis</article-title>
          <source>International Journal of Computer</source>
          <year>2021</year>
          <volume>16</volume>
          <fpage>225</fpage>
          <lpage>259</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1007/s11412-021-09346-6</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964854">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Scharinger</surname>
              <given-names>C</given-names>
            </name>
            <name>
              <surname>Schüler</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Gerjets</surname>
              <given-names>P</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Using eye-tracking and EEG to study the mental processing demands during learning of text-picture combinations</article-title>
          <source>International Journal of Psychophysiology</source>
          <year>2020</year>
          <volume>158</volume>
          <fpage>201</fpage>
          <lpage>214</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.ijpsycho.2020.09.014</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964855">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>He</surname>
              <given-names>D</given-names>
            </name>
            <name>
              <surname>Wang</surname>
              <given-names>Z</given-names>
            </name>
            <name>
              <surname>Khalil</surname>
              <given-names>E B</given-names>
            </name>
            <name>
              <surname>Donmez</surname>
              <given-names>B</given-names>
            </name>
            <name>
              <surname>Qiao</surname>
              <given-names>G</given-names>
            </name>
            <name>
              <surname>Kumar</surname>
              <given-names>S</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Classification of Driver Cognitive Load: Exploring the Benefits of Fusing Eye-Tracking and Physiological Measures</article-title>
          <source>Transportation Research Record: Journal of the Transportation Research Board</source>
          <year>2022</year>
          <volume>2676</volume>
          <issue>10</issue>
          <fpage>670</fpage>
          <lpage>681</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1177/03611981221090937</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964856">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Sáiz-Manzanares</surname>
              <given-names>M C</given-names>
            </name>
            <name>
              <surname>García-Osorio</surname>
              <given-names>C I</given-names>
            </name>
            <name>
              <surname>Díez-Pastor</surname>
              <given-names>J F</given-names>
            </name>
            <name>
              <surname>Martín-Antón</surname>
              <given-names>L J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Will personalized e-Learning increase deep learning in higher education?</article-title>
          <source>Information Discovery and Delivery</source>
          <year>2019</year>
          <volume>47</volume>
          <fpage>53</fpage>
          <lpage>63</lpage>
          <uri>https://doi.org/10.1108/IDD-08-2018-0039</uri>
        </element-citation>
      </ref>
      <ref id="R192201327964857">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Sáiz-Manzanares</surname>
              <given-names>M C</given-names>
            </name>
            <name>
              <surname>Diez</surname>
              <given-names>J J Rodríguez</given-names>
            </name>
            <name>
              <surname>Marticorena-Sánchez</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Zaparaín-Yáñez</surname>
              <given-names>M J</given-names>
            </name>
            <name>
              <surname>Menéndez</surname>
              <given-names>R</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Lifelong learning from sustainable education: An analysis with eye tracking and data mining techniques</article-title>
          <source>Sustainability</source>
          <year>2020</year>
          <issue>5</issue>
          <fpage>12</fpage>
          <lpage>12</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.3390/su12051970</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964858">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Pi</surname>
              <given-names>Z</given-names>
            </name>
            <name>
              <surname>Hong</surname>
              <given-names>J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Learning process and learning outcomes of video podcasts including the instructor and PPT slides: A Chinese case</article-title>
          <source>Innovations in Education and Teaching International</source>
          <year>2016</year>
          <volume>53</volume>
          <issue>2</issue>
          <fpage>135</fpage>
          <lpage>144</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1080/14703297.2015.1060133</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964859">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Mcleod</surname>
              <given-names>G</given-names>
            </name>
            <name>
              <surname>Mckendrick</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Tafili</surname>
              <given-names>T</given-names>
            </name>
            <name>
              <surname>Obregon</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Neary</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Mustafa</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Raju</surname>
              <given-names>P</given-names>
            </name>
            <name>
              <surname>Kean</surname>
              <given-names>D</given-names>
            </name>
            <name>
              <surname>Mckendrick</surname>
              <given-names>G</given-names>
            </name>
            <name>
              <surname>Mckendrick</surname>
              <given-names>T</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Patterns of skills acquisition in anesthesiologists during simulated interscalene block training on a soft embalmed thiel cadaver: Cohort study</article-title>
          <source>JMIR Medical Education</source>
          <year>2022</year>
          <volume>8</volume>
          <issue>3</issue>
          <fpage>1</fpage>
          <lpage>21</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.2196/32840</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964860">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Tsai</surname>
              <given-names>M J</given-names>
            </name>
            <name>
              <surname>Wu</surname>
              <given-names>A H</given-names>
            </name>
            <name>
              <surname>Bråten</surname>
              <given-names>I</given-names>
            </name>
            <name>
              <surname>Wang</surname>
              <given-names>C Y</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>What do critical reading strategies look like? Eye-tracking and lag sequential analysis reveal attention to data and reasoning when reading conflicting information</article-title>
          <source>Computers and Education</source>
          <year>2022</year>
          <volume>187</volume>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.compedu.2022.104544</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964861">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Mills</surname>
              <given-names>B W</given-names>
            </name>
            <name>
              <surname>Carter</surname>
              <given-names>O B J</given-names>
            </name>
            <name>
              <surname>Rudd</surname>
              <given-names>C J</given-names>
            </name>
            <name>
              <surname>Claxton</surname>
              <given-names>L A</given-names>
            </name>
            <name>
              <surname>Ross</surname>
              <given-names>N P</given-names>
            </name>
            <name>
              <surname>Strobel</surname>
              <given-names>N A</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Effects of low-versus high-fidelity simulations on the cognitive burden and performance of entry-level paramedicine students: A mixed-methods comparison trial using eye-tracking, continuous heart rate, difficulty rating scales, video observation and inter</article-title>
          <source>Simulation in Healthcare</source>
          <year>2016</year>
          <volume>11</volume>
          <issue>1</issue>
          <fpage>10</fpage>
          <lpage>18</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1097/SIH.0000000000000119</object-id>
        </element-citation>
      </ref>
      <ref id="R192201327964862">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Giannakos</surname>
              <given-names>M N</given-names>
            </name>
            <name>
              <surname>Sharma</surname>
              <given-names>K</given-names>
            </name>
            <name>
              <surname>Pappas</surname>
              <given-names>I O</given-names>
            </name>
            <name>
              <surname>Kostakos</surname>
              <given-names>V</given-names>
            </name>
            <name>
              <surname>Velloso</surname>
              <given-names>E</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Multimodal data as a means to understand the learning experience</article-title>
          <source>International Journal of Information Management</source>
          <year>2019</year>
          <volume>48</volume>
          <fpage>108</fpage>
          <lpage>119</lpage>
          <object-id pub-id-type="doi">https://doi.org/10.1016/j.ijinfomgt.2019.02.003</object-id>
        </element-citation>
      </ref>
    </ref-list>
  </back>
</article>
