Lo que les digo a mis estudiantes universitarios sobre el uso de ChatGPT para ensayos.
La escritura sonaba como el típico vómito de palabras de las 3 a. m., por supuesto, conceptos del curso: las oraciones transmitían una comprensión superficial, en el mejor de los casos, de lo que habíamos hecho este semestre y el argumento solo respondía vagamente al mensaje. Era el tipo de papel que normalmente me hace preguntarme: ¿Este estudiante incluso vino a clase? ¿Les comuniqué algo de algún valor?
Excepto que no hubo indicaciones obvias de que esto fue el producto de una noche entera: sin errores gramaticales, faltas de ortografía o desviaciones hacia los ejemplos extraños que parecen profundos para los estudiantes a altas horas de la noche pero definitivamente suenan como el producto de un golpe de bong en la luz. del día. Tal vez, justo antes del final del semestre, estaba viendo mi primer ensayo de estudiante escrito por ChatGPT.
Puse parte del texto en uno de los nuevos detectores de escritura de IA. Pero antes de hacer la prueba, me di cuenta de lo ridículo, y tal vez de la desesperanza, de lo que estaba a punto de hacer: usaría una máquina para ver si otra máquina había escrito un ensayo de estudiante. Me di cuenta de que ahora estoy viviendo una prueba de Turing, en la que yo, el humano, ya no puedo estar completamente seguro de si estoy leyendo el trabajo de otro humano o una respuesta copiada y pegada producida por IA generativa.
Semestre de otoño, me preocupaba que los ensayos se compraran en Internet: difíciles de controlar, pero por lo general tan fuera de tema que a los estudiantes les va mal de todos modos. Semestre de primavera, las reglas del juego han cambiado por completo: al terminar el trimestre, debo estar alerta de si una máquina ha escrito los trabajos de mis alumnos.
Después de ejecutar la prueba (10,1 por ciento escrita por humanos, según el programa), apoyé la cabeza en la mesa de la cocina, abrumado por la avalancha de cambios tecnológicos que parece haber ocurrido a la velocidad de la luz desde enero: IA generativa para texto, imágenes , y el arte (y, en menor medida, la música y el video), todo lo cual pone aún más en duda en qué podemos confiar y qué es real.
Para mi cordura, necesitaba saber si tanto mi detector de BS interno como el detector de GPT automatizado estaban en lo cierto, que el ensayo era realmente el trabajo de ChatGPT. En un correo electrónico al estudiante, le di la opción de revelar si había usado la herramienta de inteligencia artificial, prometiéndole que no habría una penalización en la calificación ni una repercusión ética por lo que era, en el mejor de los casos, un ensayo B; después de todo, no lo había hecho. lo desautorizó explícitamente en la tarea. Tuvieron; y como ocurre con la mayoría de los intentos de hacer trampa, se debía a que se sentían cansados, estresados y desesperados.
Técnicamente, había ganado mi primer enfrentamiento (conocido) contra una máquina. Pero no me sentí victorioso.
Estudio y enseño sobre medios, política y tecnología, lo que significa que ayudar a las personas a comprender el potencial disruptivo de las nuevas tecnologías de los medios para la vida cívica es, literalmente, mi trabajo.
Eso también ha significado que este semestre ha sido uno de los más desafiantes existencialmente de mis 17 años en el aula, y enseñé en DC durante las elecciones de 2016 y los primeros años de la presidencia de Trump y en Zoom durante el comienzo de la pandemia (que gravado cada molécula de mi cerebro con TDAH).
Este año, se me encomendó no solo jugar ChatGPT whack-a-mole, sino que también me encontré tratando de aceptar lo que podría ser el cambio tecnológico más significativo desde la introducción del teléfono inteligente. Más allá de la mecánica del aula, me parece más urgente que nunca ayudar a mis alumnos (y a mí mismo) a encontrar el lenguaje para hablar sobre los cambios que estamos experimentando y desarrollar las preguntas que debemos hacernos para darle sentido a todo.
El potencial disruptivo de la IA generativa me consumía. No estaba solo, por supuesto: The Atlantic proclamó muerto el ensayo universitario; mi universidad creó una clase emergente para estudiantes y profesores interdisciplinarios para explorar la ética de la IA y convocó una serie de seminarios web y reuniones para ayudar a los profesores a comprender el nuevo leviatán al que nos enfrentábamos de repente.
Mientras tanto, en cada una de mis tres clases, me he obsesionado con enseñar sobre el desorden de la información, o las muchas formas en que nuestro entorno de información está contaminado, desde deepfakes hasta clickbait y noticias hiperpartidarias. Y si bien pude explicar los procesos y los incentivos para crear y consumir contenido engañoso, hubo momentos en los que me sentí completamente abrumado por la escala y la rapidez con la que GPT ya estaba causando el caos.
"No tengo nada", les dije a mis alumnos en respuesta a las fotos falsas del arresto de Trump que había creado un periodista en un medio de periodismo de investigación muy respetado (quien, en sus palabras, "solo estaba bromeando"). Trazamos la línea de tiempo y hablamos sobre quién podría ser vulnerable a la desinformación, pero la realidad había brindado un momento de enseñanza que se sintió completamente surrealista: ¿quién sabía qué sería lo siguiente? (Enseño en una universidad católica, por lo que al menos la foto del Papa con un abrigo acolchado proporcionó un poco más de ligereza).
Aún así, mis alumnos estaban empeñados en sobre-desconcertar innecesariamente el desorden de la información, la economía de la atención y las grandes tecnologías en general, regalando así su propia agencia para comprender lo que está sucediendo. "El algoritmo" y "IA" se convirtieron en fantasmas en mis clases: palabras polivalentes que a la vez significan el final de las carreras y encapsulan la ansiedad por todo, desde la graduación y la búsqueda de trabajo hasta los ataques a los derechos LGBTQ y el aborto.
Cuando escucho a mis alumnos hablar sobre estos fantasmas de la nueva tecnología, recuerdo los errores que hemos cometido al criticar a los medios de comunicación. Cuando las palabras mismas tienen tanto significado y tantas interpretaciones posibles dependiendo del hablante, renunciamos innecesariamente a nuestra capacidad de comprender la precisión y los matices que necesitamos para diagnosticar puntos de intervención y separar nuestro temor existencial de amenazas más inmediatas a la justicia social. , el medio ambiente y la democracia.
Considere la multiplicidad de significados de "noticias falsas", desde memes en línea y políticos que desacreditan el periodismo basado en hechos hasta sátira y programas nocturnos, entre otros. Se vuelve casi imposible saber quién llama a qué noticia falsa y aún más difícil exigir responsabilidad.
Además, el colapso de grandes categorías o industrias en entidades únicas y unificadas exagera su capacidad para influir en el público. La mayoría de los estadounidenses dirán colectivamente que no confían en "los medios", imaginados como una camarilla de actores en la sombra que manipulan al público a través de algún tipo de intento coordinado de control mental.
Pero algunas preguntas de seguimiento eventualmente darán como resultado que las personas proporcionen excepciones para los medios en los que sí confían, ya sea Fox, el New York Times o algún extraño canal de conspiración en YouTube. Los medios no son un monolito: están formados por los deseos, las decisiones y las preguntas de las personas que los consumen.
De la misma manera, cuando se trata de IA generativa, si levantamos las manos y lamentamos el final del ensayo universitario, el final de la abogacía e incluso el posible final de la humanidad, cedemos nuestra agencia para dictar el futuro potencial de la tecnología a las voces más poderosas invierten en ella.
En clase este semestre, un estudiante dirigió una presentación que mostró las capacidades de trucos de salón de ChatGPT: diseñó un sitio web rudimentario y nos contó un mal chiste: ¿Por qué se sonrojó el tomate? Vio el aderezo para ensaladas. El estudiante presentador no subrayó que ChatGPT también podría estar equivocado, y los estudiantes se fueron ese día murmurando: "Eso es todo, ya no tenemos trabajo".
Ha sido extremadamente difícil persuadirlos de lo contrario, pero para mis alumnos y para el público, la forma más rápida de sentirse desesperanzado ante un cambio tecnológico aparentemente imparable es decidir que es todopoderoso y demasiado complicado para que lo entienda una persona común. Esta desesperanza paraliza la crítica pública, lo que permite a las empresas tecnológicas proceder sin control.
Hay una sección en el plan de estudios de mi clase Sobreviviendo a las redes sociales titulada "Qué hizo Dios", después del primer mensaje de telégrafo que se envió, una pregunta adecuada que resiste la prueba del tiempo y que refleja la incapacidad de nuestro lenguaje e imaginación actuales para comprender las formas en que los avances tecnológicos pueden dar forma al futuro.
En esta sección de nuestro curso, los estudiantes se enfrentan a las incógnitas de las criptomonedas, el biohacking, el amor por los robots y cómo continúa nuestra vida digital después de que termina nuestra vida mortal. Mis estudiantes universitarios pueden definir las preguntas que inspiran estos avances, evaluar el panorama actual e identificar futuros probables a nivel individual y social, sin ser expertos en tecnología o informáticos.
Eso es a lo que intentaba llegar con el título de la sección: el hecho de que el primer mensaje de telégrafo de Samuel FB Morse de 1844, en sí mismo una parodia de un pasaje de la Biblia, aún pueda plantear una pregunta relevante debería darnos alguna esperanza de que realmente tenemos la vocabulario para recuperar la agencia sobre un mundo que parece cada vez más cercano a la aniquilación tipo Terminator que nunca. (En nuestra tarea final, instruí específicamente a los estudiantes que colocar una imagen de PowerPoint del holocausto nuclear no era una respuesta aceptable a la indicación sobre los peores escenarios).
Lo que espero haber mostrado a mis alumnos es que cuando desglosamos los términos generales que hacen que sea tan imposible capturar realmente este momento: "IA", "algoritmo", "Big Tech", es posible ver cómo las mismas preguntas y los puntos de partida de las críticas tecnológicas anteriores nos han preparado adecuadamente para este mismo momento.
Podemos comenzar con algunos conceptos básicos: ¿De qué tipo de inteligencia artificial estás hablando y qué función o uso específico te preocupa? ¿Quién puede ganar dinero con esta bifurcación particular en la tecnología? ¿Quién tiene la capacidad de implementar la regulación o fomentar un mayor desarrollo?
O tal vez más simplemente, haríamos bien en tener en cuenta lo que el futurista y especialista en ética tecnológica Jaron Lanier señaló recientemente en el New Yorker: "La posición más pragmática es pensar en la IA como una herramienta, no como una criatura". Cuando recordamos esto, que hemos creado estas tecnologías como herramientas, tenemos el poder de recordar que tenemos la capacidad de moldear su uso.
Hablando en términos prácticos, estoy tratando a GPT como una calculadora: la mayoría de nosotros usamos calculadoras en la clase de matemáticas y aun así no obtuvimos calificaciones perfectas. Después de descubrir mi primer ensayo de ChatGPT, decidí que, en el futuro, los estudiantes pueden usar IA generativa en las tareas, siempre que revelen cómo y por qué. Espero que esto me lleve a golpearme menos la cabeza contra la mesa de la cocina y, en el mejor de los casos, sea su propio tipo de lección.
Future Tense es una asociación de Slate, New America y la Universidad Estatal de Arizona que examina las tecnologías emergentes, las políticas públicas y la sociedad.