¡Síguenos en nuestras redes sociales!

Tecnología

¿Usaste ChatGPT en tus solicitudes escolares? Estas palabras pueden alertar sobre su empleo

ChatGPT y otras IA generativas se están utilizando ampliamente en la educación superior en las admisiones escolares. Pero ahora, los estudiantes que han recurrido a la IA para escribir están recurriendo a las personas para hacer que ese trabajo parezca más humano.

Publicado

en

“Tapiz.” “Faro.” “Plan de estudios integral”. “Estimado profesorado”. “Comunidad académica vibrante”, son palabras que se encuentran entre la larga lista de términos coloridos, frases floridas y sintaxis obsoleta que probablemente avisen a los comités de admisiones de los solicitantes que han utilizado la IA para ayudar a escribir sus ensayos universitarios o de posgrado este año, según los consultores de ensayos que son los estudiantes. contratando en masa para eliminar ChatGPT y agregar un “toque humano” a sus envíos.

“Tapiz” en particular es una importante señal de alerta en el grupo de este año, dijeron a Forbes varios consultores de ensayos en la plataforma Fiverr. Mike, un alumno de la Ivy League y ex editor en jefe del Cornell Business Journal que ahora edita cientos de solicitudes de posgrado en cada ciclo a través de Capitol Editors, dijo que ha aparecido repetidamente en borradores de al menos 20 de sus clientes en los últimos meses. (Solicitó el anonimato para proteger su privacidad).

“Ya no creo que haya una manera de usar inocentemente la palabra ‘tapiz’ en un ensayo; si aparece la palabra ‘tapiz’, fue generada por ChatGPT”, dijo a Forbes. Aunque muchas palabras así, por sí solas, podrían haber provienen de un ser humano, cuando un ojo entrenado ve que se usan una y otra vez con la misma cadencia en múltiples ensayos, “es simplemente una señal realmente reveladora”.

“Habrá un ajuste de cuentas”, añadió Mike. “Habrá un montón de estudiantes que, sin saberlo, utilicen la palabra ‘tapiz’ u otras palabras en su ensayo que [pueden] no ser admitidas en este ciclo”.

Este invierno y primavera marcan la primera temporada de admisiones completa desde la explosión y la amplia adopción de ChatGPT y otras IA generativas, y en el mundo de la educación, los casos de uso de rápido crecimiento de la tecnología han superado con creces las políticas escolares. Algunos educadores están tratando de defenderse de la tecnología con políticas de “tolerancia cero”, mientras que otros la adoptan activamente en sus aulas (la Universidad Estatal de Arizona, por ejemplo, se está asociando con OpenAI para utilizar ChatGPT Enterprise para tutorías y cursos). Pero a falta de reglas cohesivas y consistentes sobre cómo se puede utilizar la IA en el proceso de solicitud, en todo caso, y sin herramientas que puedan detectar de manera confiable si se ha utilizado, muchos estudiantes han recurrido a ChatGPT de OpenAI y sus rivales en busca de ayuda. La adopción ha dado lugar a una industria artesanal de consultores independientes que se especializan en eliminar la jerga sospechosa de la IA y hacer que los ensayos parezcan auténticos.

Forbes preguntó a más de 20 universidades públicas y privadas de diversos tamaños en los Estados Unidos, desde Arizona State y Georgia Tech hasta Princeton y Harvard, sobre las tendencias en el uso de AI o ChatGPT entre las aplicaciones y cómo están manejando a los candidatos que probablemente hayan confiado en él. Muchas escuelas se negaron a hacer comentarios o no respondieron; La portavoz de Emory, Sylvia Carson, dijo que “es demasiado pronto para que nuestra gente de admisiones ofrezca observaciones claras”.

“YA NO CREO QUE HAYA UNA MANERA DE UTILIZAR INOCENTEMENTE LA PALABRA ‘TAPIZ’ EN UN ENSAYO; SI APARECE LA PALABRA ‘TAPIZ’, FUE GENERADA POR CHATGPT”.

Mike, consultor de ensayos y ex editor en jefe de Cornell Business Journal

Pero los consultores de edición dijeron a Forbes que si pudieran detectar el uso sospechoso de IA después de leer solo docenas o cientos de ensayos, a los comités de admisiones que revisen muchos más les podría resultar aún más fácil detectar estos patrones. Ben Toll, decano de admisiones de pregrado de la Universidad George Washington, explicó lo fácil que es para los funcionarios de admisiones detectar solicitudes escritas por IA.

“Cuando has leído miles de ensayos a lo largo de los años, los ensayos influenciados por la IA destacan”, dijo Toll a Forbes. “Es posible que no den señales de alerta al lector ocasional, pero desde el punto de vista de la revisión de una solicitud de admisión, a menudo son ineficaces y una oportunidad perdida para el estudiante”.

De hecho, el personal de admisiones de GWU se capacitó este año con ensayos de muestra que incluían uno escrito con la ayuda de ChatGPT, dijo Toll, y un miembro del comité tardó menos de un minuto en detectarlo.

¿Usaste ChatGPT en tus solicitudes escolares? Estas palabras pueden alertar sobre su empleo

Las palabras eran “delgadas, huecas y planas”, dijo. “Si bien el ensayo llenó la página y respondió a la pregunta, no le brindó al equipo de admisiones ninguna información para ayudar a que la solicitud avanzara hacia una decisión de admisión”. (Divulgación: una de las autoras del artículo, Alexandra, ocasionalmente ha compartido comentarios con solicitantes universitarios sobre sus ensayos).

UNA DEMANDA DE “VIBRACIONES HUMANAS”

En diciembre de 2023, apareció una solicitud inusual en la cuenta Fiverr de Indiana Pejic: “¿Podrías editar y corregir mi declaración personal, 1,000 palabras? Lo escribí en parte con ChatGPT y agradecería que pudieras hacerlo sonar menos robótico”. La solicitud era de un estudiante coreano que solicitaba un doctorado en literatura renacentista en la Universidad de Cambridge.

Pejic, un profesional independiente en Serbia que tiene tres maestrías y un doctorado, ha editado aproximadamente 100 declaraciones personales y ensayos universitarios a través de Fiverr. Aunque inicialmente temía que su negocio se viera afectado con la aparición de ChatGPT, la realidad ha sido todo lo contrario: el auge de la IA ha impulsado una demanda sin precedentes de editores expertos en hacer que la escritura generada por computadora suene como algo real. “ChatGPT tiene muchas palabras”, dijo, y “hay muchas palabras abstractas que realmente no conectan bien”. Hoy en día, cobra hasta 100 dólares por añadir “vibraciones humanas” a los ensayos escritos por IA. (Otros que ofrecen servicios similares a través de Fiverr cobran entre 10 y 150 dólares, dependiendo de la duración).

Lara Cantos, editora y traductora en México, dijo que ha visto tantos grupos repetitivos de palabras y construcciones de oraciones que ha elaborado un glosario de términos que activaron las alarmas de la IA. “Es la terminología específica y la estructura de las oraciones las que comienzan a repetirse, y el uso de los mismos adjetivos una y otra vez”, dijo. (“Tapiz”, señaló, también hace apariciones recurrentes).

“LO ESCRIBÍ EN PARTE CON CHATGPT Y AGRADECERÍA QUE PUDIERAS HACERLO SONAR MENOS ROBÓTICO”.

Un estudiante que solicita un doctorado en la Universidad de Cambridge.

Mike, de Capitol Editors, dice que él también ha mantenido una lista actualizada. Incluye describir algo que “se alinea perfectamente con mis aspiraciones” o “deriva de una pasión profundamente arraigada”, o hace referencia a la “destreza de liderazgo”, el “viaje empresarial/educativo” y el “compromiso con la mejora y la innovación continuas”. (Una estructura que es reveladora, añadió, es “no simplemente X, sino Y”, o “no solo X, sino Y”).

Todos los consultores con los que habló Forbes dijeron que las herramientas de inteligencia artificial son bastante populares entre los estudiantes internacionales que solicitan admisión en el extranjero y que recurren a ChatGPT porque el inglés no es su primer idioma. En algunos casos, alimentarán las ideas de la IA o le darán indicaciones en su idioma nativo para comenzar con un primer borrador; en otros, dependerán más de la tecnología. “Acabo de recibir un pedido de un estudiante en Suiza que solicita ingresar a los EE. UU. con un ensayo generado por ChatGPT”, dijo Cantos a Forbes. “Parte del contenido escrito por IA parece una traducción literal”.

UN SALVAJE OESTE DE EDUCACIÓN SUPERIOR
Si bien las herramientas de inteligencia artificial que pueden escribir y refinar grandes bloques de texto continúan desarrollándose a una velocidad vertiginosa, volviéndose mejores en escritura y más difíciles de detectar, las escuelas luchan por mantenerse al día y llegar a un consenso sobre cómo abordarlas en las aplicaciones. Y, mientras tanto, los estudiantes buscan políticas más claras (y superan los límites) sobre lo que pueden y no pueden hacer con estas herramientas.

“No creo que haya nada que se acerque a un enfoque consistente del problema”, dijo Chris Reed, director ejecutivo de admisiones de Texas A&M.

Cada oficina de admisiones tiene reglas diferentes sobre el uso de la IA en las solicitudes, que van desde la estricta política de “tolerancia cero” de la Universidad del Sur de California hasta la posición de Georgia Tech de que los estudiantes pueden usar la IA como un “colaborador útil” y la postura de Texas A&M de que los solicitantes pueden enviar contenido generado por IA porque la universidad ha dejado de utilizar el ensayo universitario estándar como muestra de escritura. (De hecho, uno de los motivos del programa de honores de Texas A&M es utilizar una plataforma de inteligencia artificial como ChatGPT o Bard de Google para escribir un ensayo y luego criticar qué tan bien pudo presentar un argumento).

“Gran parte depende de cada institución individual y de cómo utilizan los ensayos en su proceso”, dijo Reed de Texas A&M, señalando que alrededor del 30% de los ensayos de admisión que reciben ahora utilizan IA de alguna manera según la detección de IA. herramienta GPTZero.

Otras universidades son menos flexibles. En la Universidad de California, que tiene 10 campus en todo el estado, los futuros estudiantes pueden utilizar la IA para realizar una lluvia de ideas y crear un esquema, pero el borrador final debe estar “escrito de forma independiente” y las respuestas que incluyan una “respuesta de IA sin editar” (como una copiar y pegar directamente desde ChatGPT) podría marcarse como plagio, dijo la portavoz Rachel Zaentz a Forbes en un correo electrónico. “Sería más trabajo para [los solicitantes] intentar crear un mensaje ChatGPT sólido que desarrollar sus propias respuestas originales a las preguntas”, agregó.

La Solicitud Común, utilizada por más de un millón de estudiantes cada año para postularse a más de 1,000 instituciones académicas, también considera “el contenido sustancial o el resultado de una plataforma de inteligencia artificial” una forma de plagio según su política de fraude. La presidenta de Common App, Jenny Rickard, dijo a Forbes que “investigamos todas las acusaciones de fraude y, si están fundamentadas, tomamos las medidas disciplinarias adecuadas”. No dijo cómo se investigan exactamente los posibles casos de plagio relacionado con la IA, aunque señaló que la aplicación común no utiliza herramientas de detección de IA. Sin embargo, las consecuencias pueden ser graves y las acciones disciplinarias incluyen informar los hallazgos a todos los miembros de la compañía. universidades en la lista “Mis universidades” de un estudiante.

LA DETECCIÓN, UNA CIENCIA IMPERFECTA

No es de extrañar que Common App no dependa de herramientas que prometen eliminar el contenido generado por IA: sigue siendo notoriamente inexacta, hasta el punto de que OpenAI cerró su propio software de detección de IA. Líderes en el espacio como GPTZero han cambiado de rumbo y ahora ofrecen a las escuelas análisis de alto nivel sobre cómo se utiliza la IA en las aplicaciones en lugar de identificar ensayos problemáticos. Otros creadores de software de detección han advertido contra el uso de la tecnología en las admisiones.

LAS ACCIONES DISCIPLINARIAS POR EL USO DE IA EN THE COMMON APPLICATION INCLUYEN INFORMAR LOS HALLAZGOS A TODAS LAS UNIVERSIDADES MIEMBROS EN LA LISTA “MIS UNIVERSIDADES” DE UN ESTUDIANTE.

Jenny Rickard, directora ejecutiva y presidenta de Common App

Eric Mitchell, un estudiante de doctorado en Stanford que creó DetectGPT, lo llamó “un campo minado total”, advirtiendo que si bien la investigación sobre software de detección vale la pena, las herramientas resultantes simplemente no están listas para el horario de máxima audiencia en la educación superior. La admisión a la universidad es un momento tan crítico en la vida de una persona, dijo en una entrevista, y “el costo de condenar falsamente el ensayo de alguien es tan alto, [que] no estoy seguro de que podamos aceptar una tasa de falsos positivos del 2%. No está claro en qué medida las escuelas utilizan este software en las admisiones”, pero tanto Mitchell como el director ejecutivo de GPTZero, Edward Tian, dijeron que los educadores han expresado interés.

Como la mayoría de las escuelas con las que Forbes contactó para esta historia, el decano de admisiones universitarias de GWU no dijo si las herramientas de detección de IA son parte de su proceso de revisión. Pero sí defendió a los aspirantes a asistentes para que evitaran ChatGPT y sus pares por completo.

“Cuando un estudiante completa su solicitud, la mayoría de los materiales ya habrán sido solidificados. Los solicitantes no pueden cambiar sus calificaciones. No pueden retroceder en el tiempo y cambiar las actividades en las que han estado involucrados”, dijo Toll. “Pero el ensayo es el único lugar donde mantienen el control hasta el momento en que presionan enviar la solicitud. Quiero que los estudiantes comprendan cuánto valoramos conocerlos a través de sus escritos y cómo herramientas como la IA generativa terminan quitando su voz de su solicitud de admisión”.

Con información de Forbes

JE

Tecnología

Gmail deja atrás los códigos SMS y anuncia un método más seguro

Gmail confirmó que dejará de enviar códigos de autenticación por SMS porque son inseguros. Ahora, los usuarios recibirán un código QR para escanearlo con el móvil.

Publicado

en

Gmail implementará un ajuste que modificará la forma como inicias sesión en tu correo electrónico. Google confirmó que dejará de enviar usar el SMS como medida de seguridad, lo que significa que ya no recibirás una clave por el móvil cuando intentes recuperar tu cuenta o firmarte en un dispositivo desconocido. Para reemplazarlo, la tecnológica se apoyará en una tecnología bastante popular: los códigos QR.

De acuerdo con un reporte de ForbesGoogle abandonará los códigos de autenticación por SMS para Gmail. La empresa dijo que esta decisión forma parte de una estrategia para mejorar la seguridad y combatir el abuso en su plataforma de correo electrónico. “Así como queremos dejar atrás las contraseñas con el uso de cosas como claves de acceso, queremos dejar de enviar mensajes SMS para la autenticación”, dijo Ross Richendrfer, portavoz de Google

En lugar de depender de códigos SMS de seis dígitos, Google planea introducir códigos QR para la autenticación. El sistema mostrará un código QR en la pantalla, que los usuarios deberán escanear con la cámara del móvil para verificar su identidad. Este enfoque reduciría el riesgo de ataques de phishing, en donde los usuarios son engañados para revelar los códigos que reciben por SMS a un actor malintencionado.

Si bien Google ha relegado el uso de SMS como herramienta de seguridad en la verificación de dos pasos, Gmail todavía la utiliza para la prevención de abusos. El registro de cuentas nuevas de correo electrónico requieren de un número de móvil, el cual recibirá el código de activación. Richendrfer indica que esta medida evita el registro de cuentas en masa para distribuir spam y malware.

Por qué Gmail dejará de enviar códigos de autenticación por SMS

La decisión de Gmail de abandonar los códigos por SMS obedece a un ajuste en los lineamientos de seguridad. El uso de mensajes de texto como herramienta de verificación es considerado inseguro por varias razones. Debido a su adopción, los hackers han creado métodos para acceder a los códigos de seguridad que se incluyen en los SMS, lo que deriva en robo de cuentas.

Entre los métodos más comunes se encuentra el phishing, en donde los atacantes engañan a los usuarios para que ingresen el código recibido por SMS en un sitio web falso, permitiéndoles acceder a la cuenta en tiempo real. Otra práctica habitual es el SIM Swapping, en donde un hacker engaña a un operador para transferir el número de teléfono de la víctima a una tarjeta SIM que ellos controlan, lo que les brinda acceso a sus códigos por SMS.

“Nos complace introducir un nuevo enfoque innovador para reducir la superficie de ataque y mantener a los usuarios más seguros ante actividades maliciosas”, añadió Richendrfer.

Gmail comenzará la transición del SMS a los códigos QR durante los próximos meses. Debido a su integración en el ecosistema, se espera que el proceso sea gradual. Google no mencionó un cronograma exacto o los países en donde comenzará a aplicarse este cambio, por lo que deberemos de esperar.

Con información de Hipertextual

Sysm

Continuar leyendo

Tecnología

¿Quieres uno? Apple lanza el iPhone 16e con Apple intelligence

Apple presentó su último modelo, más barato, pero con características Premium; aquí te contamos los detalles.

Publicado

en

Luego de algunas filtraciones y analistas que indicaban que a principios de este año Apple lanzaría un nuevo dispositivo, hoy Team Cook develó el nuevo iPhone 16e.

Este nuevo iPhone incorpora el procesador A18 Bionic, el mismo chip que utilizan los modelos de la serie 16. Esta decisión permite al dispositivo ejecutar Apple Intelligence, la plataforma de inteligencia artificial que requiere 8GB de RAM para su funcionamiento.

En el aspecto visual, Apple retoma el notch en la pantalla OLED Super Retina XDR de 6.1 pulgadas que alcanza un brillo de mil 200 nits y mantiene el sistema Face ID para el desbloqueo facial.

La configuración de cámara se compone de un sensor principal de 48 megapíxeles con capacidad de zoom 2x mediante procesamiento computacional, junto a una cámara frontal TrueDepth de 12MP para selfies y videollamadas.

¿Cuánto costará el iPhone 16e de Apple?


El iPhone 16e integra el primer módem 5G desarrollado por Apple, el C1, enfocado en la eficiencia energética. De acuerdo con los datos técnicos, el dispositivo ofrece 26 horas de autonomía en uso mixto y cuatro horas adicionales de reproducción de video en comparación con generaciones anteriores.

El equipo cuenta con resistencia IP68, puerto USB-C con velocidades USB-2, y el sistema operativo iOS 18. Las funciones de inteligencia artificial están disponibles en todas las versiones del dispositivo, independientemente de su capacidad de almacenamiento.

Apple estableció tres opciones de memoria: la versión de 128GB tendrá un precio de 14 mil 999 pesos, el modelo de 256GB costará 17 mil 499 pesos, mientras que la variante de 512GB se comercializará en 22 mil 499 pesos.


La apuesta de Apple

A finales del mes pasado, Apple pronosticó un fuerte crecimiento de las ventas, lo que indica que la empresa se recuperará de la caída de las ventas del iPhone a medida que despliegue las funciones de inteligencia artificial en los próximos meses en más regiones e idiomas.

Sin embargo, los analistas se han mostrado cautos sobre el impulso que estas herramientas podrían dar a las ventas, ya que las funciones de IA de Apple se desplegarán por fases en algunas regiones en su última gama de iPhone 16 y en el modelo iPhone 15 Pro.

Las ventas del modelo SE como parte de los ingresos totales por iPhones han caído del 10 por ciento desde su introducción en 2016 a alrededor del 1 por ciento el año pasado, según Counterpoint Research.

Se espera que la actualización de este año renueve su diseño, se deshaga del botón de inicio e introduzca su función FaceID, además de actualizaciones de la cámara y procesador para admitir funciones de IA, según analistas y medios de comunicación.

Con informacion de Milenio

Sysm

Continuar leyendo

Tecnología

Musk lanza Grok-3, su IA ‘aterradoramente inteligente’… y la califican mejor que a ChatGPT

Elon Musk, el hombre más rico del mundo, afirmó que uno de sus planes es que Grok-3 sea integrada a los robots Optimus y los cohetes Starship.

Publicado

en

Fotos: Fotoarte El Financiero

Elon Musk, director del DOGE, lanzó el nuevo sistema de inteligencia artificial Grok-3, desarrollado por su empresa xAI, un modelo que algunos análisis sitúan por encima de otros ya existentes y que el propio magnate ha calificado de “aterradoramente inteligente”.

El Chatbot Arena, una plataforma integral que se diseñó para ayudar a las empresas y a los particulares a encontrar los mejores y más convenientes sistemas de IA, ha situado el nuevo modelo por encima de los desarrollados por las empresas OpenAI -responsable del ChatGPT- y de Google -responsable de Gemini-.

El sistema combina algunas tecnologías ya muy conocidas: La del popular Tetris -un videojuego similar a un puzzle que consiste en ir eligiendo la forma en que van apareciendo las piezas para que vayan encajando- y el bejeweled -un videojuego de combinación de fichas (joyas) de colores.

Así es como se ve Grok, la IA de Musk

El lanzamiento de Grok-3 de la empresa xAI de Elon Musk se ha producido sólo unas semanas después de la presentación de la china DeepSeek de su modelo de inteligencia artificial R1, comparable e incluso superior al o1 de la estadounidense OpenAI en cuanto se refiere a resolución de problemas matemáticos, programación o deducción lingüística.

¿Grok-3 es mejor que ChatGPT?

Chatbot Arena, que permite a los usuarios comparar características, precios o capacidades , puso a Grok-3 en el primer puesto de su clasificación, por encima de Gemini, de ChatGPT o del modelo de la empresa china DeepSeek.

“Es un comienzo”, ha escrito Elon Musk en su red social tras comprobar que el modelo de inteligencia artificial que ha desarrollado su empresa se ha situado en el primer puesto de esa clasificación y alcanzar algunos récords de puntuación.

Algunos expertos destacan que Grok-3 domina con claridad en varias categorías y ha demostrado una superioridad clara en algunas tareas en las que otros modelos tropiezan.

Grok-3 fue ubicada en la cima de un ranking de inteligencias artificiales

El magnate estadounidense y líder del Departamento de Eficiencia Gubernamental (DOGE) ha asegurado que si todo marcha según lo previsto, este nuevo sistema de inteligencia artificial se unirá a Optimus (los robots humanoides desarrollados por su empresa Tesla) y a los cohetes Starship de su empresa SpaceX para llegar a Marte.

X (antes Twitter) se ha inundado de comentarios tras el lanzamiento del nuevo modelo de IA y con algunas de las frases que Elon Musk ha pronunciado durante su presentación.

“La misión de xAI y Grok es comprender el universo. Queremos responder a las preguntas más importantes: ¿Dónde están los extraterrestres? ¿Cuál es el sentido de la vida? ¿Cómo termina el universo? Para ello, debemos buscar rigurosamente la verdad”, dijo.

Grok-3: ¿Una nueva IA o un nuevo instrumento de desinformación de Musk?

El lanzamiento de Grok 3 ha reavivado el debate sobre el impacto de la IA en la privacidad, la desinformación y el sesgo en los modelos generativos, y el director del Grado de Ciencia de Datos e IA de la Universidad de Diseño, Innovación y Tecnología, Fernando Blázquez, ha alertado de que los testimonios de quienes aplauden Grok-3 deben ser tomados con cautela.

La carrera por obtener modelos de inteligencia artificial cada vez más avanzados “no debe plantearse como un mero ejercicio por adueñarse de este tipo de mercados y adquirir una posición predominante, sino con la perspectiva de proporcionar mejores herramientas y servicios a los usuarios, bajo estrictas normas de ética y legalidad, y siguiendo directrices donde el respeto a los usuarios y a sus derechos sea un principio fundamental”, ha escrito Blázquez en un análisis remitido por esta Universidad.

Resulta “preocupante” que Grok 3 pueda reflejar las opiniones y posturas de su fundador Elon Musk, “sugiriendo que X es la única fuente confiable de noticias”, lo que a su juicio plantea “serias dudas sobre el papel de la IA en la formación de la opinión pública y su posible instrumentalización con fines ideológicos”.

Fernando Blázquez ha advertido que algunas de las afirmaciones que se han realizado en el lanzamiento, como “tareas de razonamiento, mostrando habilidades superiores en pruebas de matemáticas, ciencias y programación”, deben ser tomadas con cautela, ya que esos calificativos provienen de los creadores del modelo y aún no hay estudios académicos que respalden estas afirmaciones de manera independiente, “como sí ocurre con otros modelos de IA”.

Con informacion de El Financiero.

CAC

Continuar leyendo

Tendencia

Copyright © 2024 Todos los derechos reservados Blanco y Negro Noticias