¡Síguenos en nuestras redes sociales!

Tecnología

¿Elon Musk plagió ‘Yo, Robot’ con sus Optimus? José Antonio Pontón lo aclara

El periodista explicó que la innovación sigue siendo el motor principal de las compañías del dueño de Tesla, quien continúa revolucionando la tecnología con proyectos como este.

Publicado

en

José Antonio Pontón, experto en tecnología, habló sobre la controversia entre el director de la película Yo, RobotAlex Proyas, y Elon Musk, específicamente por el supuesto plagio en el diseño de los robots Optimus de Tesla.

Según el periodista, el evento donde se presentó este robot, llamado We, Robot, recuerda inevitablemente a la famosa película de ciencia ficción dirigida por Alex Proyas hace 20 años.

“Los modelos de robots de Musk son muy parecidos a los que aparecen en Yo, Robot“, mencionó Pontón.

El cineasta Alex Proyas, director de la película, lanzó un comentario en redes sociales, de manera irónica, pidiendo que Musk le devolviera sus diseños.

“Se los pirateó, un poco sarcástico, obvio no va a pasar nada“, comentó Pontón, destacando la actitud despreocupada de Musk frente a la acusación.

Los robots presentados, llamados Optimus, incluso hacen referencia al famoso personaje de Transformers, Optimus Prime.

Elon Musk busca innovar

A pesar de la controversia, es evidente que Musk sigue adelante con sus innovaciones tecnológicas, como la reciente presentación del Robovan, un vehículo autónomo con capacidad para 20 personas, y los avances en SpaceX, que recientemente lanzó un cohete que regresó exitosamente a su base.

Pontón también señaló que esta polémica ha tenido consecuencias financieras. “Para todos los que tienen acciones de Tesla, bajó 9 por ciento”, resaltó, lo cual refleja el impacto que tienen las controversias públicas en las empresas tecnológicas.

No obstante, la innovación sigue siendo el motor principal de las compañías de Elon Musk, quien continúa revolucionando la tecnología con proyectos como Optimus y su visión futurista para Tesla.

Con información de MVS Noticias

TR

Tecnología

OpenAI evitó la creación de 250,000 deepfakes previo a las elecciones de EU

Kamala Harris, Donald Trump, Joe Biden y JD Vance fueron algunos de los personajes que más solicitudes acumularon para crear imágenes falsas.

Publicado

en

Una de las principales preocupaciones alrededor de la tecnología de Inteligencia Artificial generativa es la desinformación y durante las elecciones de Estados Unidos, OpenAI rechazó más de 250,000 solicitudes para crear imágenes falsas, de alguno de los candidatos, en los días previos a las elecciones de la semana pasada.

A través de una publicación en el blog oficial, la compañía dijo que los principales involucrados en la generación de deepfakes fueron Kamala Harris, Joe Biden, Donald Trump, el gobernador de Minnesota, Tom Walz, y el ahora vicepresidente electo, J.D. Vance.

La empresa afirmó que no había encontrado ninguna evidencia de que algún producto generado por medio de sus herramientas alcanzara a convertirse en un contenido viral o que llegara a influir en el resultado de las elecciones de Estados Unidos.

La empresa también dijo que durante el año electoral colaboraron con la Asociación Nacional de Secretarios de Estado, para dirigir a las personas a sitios oficiales sobre cómo y dónde votar, además de recibir información que incentivaba a los usuarios a consultar más fuentes de noticias de algunos de sus socios, como Associated Press o Reuters.

Sin embargo, este tipo de colaboraciones sólo existen en Estados Unidos, lo cual resulta preocupante, ya que ChatGPT se trata de una plataforma que opera a nivel mundial.

En México, por ejemplo, no tiene una colaboración directa con el Instituto Nacional Electoral o alguna otra entidad, por lo que la herramienta recurre al sitio web del INE, comunicados oficiales e información de medios de comunicación “de alta credibilidad” para que los usuarios puedan obtener datos precisos y actualizados. Pero sin ahondar en más detalles.

Un problema persistente

De acuerdo con datos de la empresa de aprendizaje automático, Clarity, la cantidad de deepfakes ha aumentado en un 900% año tras año y su objetivo era desestabilizar los procesos electorales de Estados Unidos.

Según un informe publicado en octubre por OpenAI, la empresa había desbaratado “más de 20 operaciones y redes engañosas en todo el mundo que intentaron utilizar nuestros modelos” para artículos generados por IA, hasta publicaciones en redes sociales de cuentas falsas.

Para los funcionarios de todo el mundo, la presencia de la IA generativa representa un potencial desinformativo preocupante, debido a que si bien han pasado por procesos de refinamiento, en muchas ocasiones los grandes modelos de lenguaje siguen mostrando información inexacta y poco fiable.

A pesar de no estar de acuerdo con regulaciones como la de California, OpenAI ha respaldado la Ley para proteger las elecciones de la IA, un proyecto bipartidista en EU, que prohibiría la distribución de audio, imágenes o videos engañosos generados por IA relacionados con candidatos federales en la propaganda política.

“No queremos que nuestra tecnología, ni ninguna tecnología de IA, se utilice para engañar a los votantes y creemos que esta legislación representa un paso importante para abordar este desafío en el contexto de la publicidad política”, afirma la empresa.

Con información de Expansión

TR

Continuar leyendo

Tecnología

Quitar los cargadores de la caja de los smartphones ¿sustentabilidad o negocio?

La eliminación de los cargadores y audífonos de los smartphones fue publicitada como una medida sustentable, pero analistas señalan que es más bien una estrategia para generar más ingresos.

Publicado

en

Apple eliminó el cargador de sus dispositivos en 2020 con el lanzamiento del iPhone 12, argumentando razones ambientales. Según la empresa, quitar el cargador y los audífonos de la caja ayuda a reducir las emisiones de carbono y el consumo de recursos, ya que muchos usuarios ya poseen cargadores y audífonos de modelos anteriores. Esta estrategia también estaba enfocada en empaques más pequeños, optimizando el transporte y reduciendo su huella ambiental.

“Sabemos que los clientes ya tienen más de 700 millones de audífonos Lightning y muchos clientes ya han pasado a un mundo inalámbrico. También hay más de 2,000 millones de adaptadores de corriente de Apple en el mundo, y eso sin contar los miles de millones de terceros. Así que eliminarlos de la caja reducirá aún más nuestro impacto ambiental”, dijo en su momento Lisa Jackson, Vicepresidenta de Medio Ambiente, Políticas e Iniciativas Sociales de Apple.

Apple no fue la única, otras empresas, como Samsung, Xiaomi, Google y Sony, le siguieron. Hoy, a cinco años de ese hito, no se ha reducido el volumen de residuos electrónicos, pero sí han aumentado las ganancias de las empresas por la venta de cargadores. De hecho, firmas como Counterpoint Research han señalado que la medida de eliminar el cargador tenía la intención de hacer crecer el mercado de audífonos inalámbricos y cargadores.

A nivel mundial, el informe realizado por Global E-Waste Monitor señaló que cada año los residuos electrónicos aumentan en 2.6 millones de toneladas y se prevé que para el 2030 la cifra alcanzará las 82 millones de toneladas. En México, se estima que la cantidad de residuos electrónicos ronda un millón de toneladas anuales, de acuerdo con la Semarnat, lo que equivale al peso de 20,000 aviones comerciales grandes.

Al mismo tiempo, el tamaño del mercado de estos accesorios en 2019 (un año antes de que Apple los eliminara) era de 228,570 millones de dólares y se espera que para el 2030 llegue hasta los 328,690 millones de dólares, es decir, un crecimiento anual del 3.3%, según datos de Research and Markets.

Además del crecimiento del mercado, la eliminación de estos elementos también representa un beneficio económico para las tecnológicas. En marzo de 2022, la firma CCS Insight reportó que prescindir de los accesorios representaba un ahorro de 35 dólares por cada teléfono vendido de Apple.

Desde 2020 y marzo de 2022, Apple vendió alrededor de 190 millones de teléfonos a nivel mundial, por lo que las ganancias tras la eliminación de los cargadores y los audífonos, sumando la reducción de costos de envío, fueron de 6,500 millones de dólares, según la consultora.

Los analistas destacan que este ecosistema de accesorios, en particular para los cargadores, no solo aumenta los ingresos, sino que también aumenta la dependencia de los consumidores, lo que puede ser más lucrativo a largo plazo para las empresas.

Con información de Expansión

TR

Continuar leyendo

Tecnología

Crece el uso de IA para recrear a personas que ya fallecieron 

Chatbots como Replika o HereAfterAI empiezan a cobrar relevancia en el mercado, pero también esto puede abrir brechas de ciberseguridad y cuestiona la ética de su uso.

Publicado

en

Aunque el uso de IA en este tema ha crecido, esto puede generar brechas de seguridad para los datos de las personas que fallecieron. (tolgart/Getty Images)

El duelo es una sensación que vivimos todos los seres humanos y en fechas como Día de muertos muchas personas recuerdan a sus seres queridos con ofrendas o visitando panteones, sin embargo, algunos empiezan a buscar recrear a sus seres queridos con Inteligencia Artificial.

El crecimiento del uso de chatbots que recrean la personalidad y la voz de personas fallecidas ha llamado la atención en el ámbito de la tecnología y la cultura popular. En fechas como Día de Muertos, esta tendencia adquiere una relevancia especial, ya que la interacción con los “recuerdos digitales” permite experimentar una nueva forma de nostalgia y conexión con seres queridos que ya no están.

Existen varios chatbots que han explorado esta idea, entre ellos Replika, una aplicación que inicialmente se diseñó como un chatbot amigable, pero que hoy en día permite a las personas crear simulaciones de conversaciones con personalidades o incluso seres queridos.

Otro caso es el de HereAfter AI, una aplicación que permite a los usuarios grabar historias, respuestas y expresiones propias para que sus familiares puedan “conversar” con ellos, incluso después de su fallecimiento. Este tipo de herramientas utilizan el aprendizaje automático para captar las particularidades de las respuestas, el tono y el estilo de cada persona, permitiendo una interacción que se siente más natural y auténtica.

Además, la popular aplicación Character IA puede crear a un ser querido de acuerdo a las indicaciones del usuario. Por ejemplo si quiero crear un avatar de mi papá que falleció a causa de la pandemia por Covid-19 es posible hacerlo, sólo debo decirle cómo se describiría a él mismo, qué gustos tiene e incluso podría integrar una foto de él para tener una interacción más cercana.

Paralelamente, la recreación de imágenes y videos también ha experimentado un avance significativo, con herramientas como DALL-E y Midjourney, que generan imágenes de cualquier concepto que el usuario desee, incluyendo la simulación de fotografías antiguas o la creación de retratos que “reviven” rostros del pasado.

Recurrir a estas herramientas para “traer a la vida” a quienes ya no están con nosotros, sobre todo en fechas como Día de Muertos, parece buena idea, aunque en realidad representa riesgos de ciberseguridad; de hecho, 67% de los mexicanos cree que la información personal de los fallecidos es particularmente vulnerable al robo de datos, según el estudio de Kaspersky: Superstición e inseguridad: cómo se relacionan los usuarios con el mundo digital.

Estas tecnologías plantean también algunas preguntas éticas y emocionales, ya que aunque pueden ofrecer consuelo y permitir revivir momentos importantes, también presentan riesgos en términos de privacidad y el manejo del duelo.

Además, la investigación de Kaspersky reveló que para un 31% de los encuestados en el país es aceptable recrear la imagen digital de un difunto con herramientas de IA para ayudar a los que se quedan a sobrellevar su pérdida; sin embargo, un 43% de los usuarios está en desacuerdo.

Y es que muchos consideran que ver imágenes de personas fallecidas recreadas con IA puede ser perturbador para sus seres queridos (69%); asimismo, que no es ético mantener en línea grabaciones de voz, video o imagen de un difunto sin su autorización previa o la de su familia (40%).

¿Qué está en riesgo?

De acuerdo con Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, “la vida digital y sus riesgos existen más allá de la muerte. Si los cibercriminales logran robar información de personas fallecidas que no está protegida pueden usarla con distintos fines maliciosos, como suplantar su identidad”.

Para cuidar de tu privacidad y la de tus difuntos en este Día de Muertos, la empresa de ciberseguridad recomienda:

Antes de usar alguna app de IA para “traer de vuelta” a algún ser querido busca un consenso con sus familiares o personas cercanas, piensa en cómo se pueden sentir con eso y cómo se puede honrar la memoria de alguien que ya no está, de manera respetuosa sin exponer su identidad y privacidad digital.

Si se ha decidido recrear la identidad digital de una persona fallecida con IA, recuerda descargar aplicaciones solo de tiendas oficiales, así como leer los permisos que solicitan, sus términos y condiciones. De lo contrario, puedes poner en riesgo tu información y la del difunto.

Y aunque pueda parecer una plática dificil, habla con tus seres queridos sobre cómo quieren que su huella digital sea protegida cuando mueran, qué se debe hacer con todos sus datos y cuentas almacenadas en línea, por ejemplo, si quieren que se eliminen de ciertas plataformas o si autorizan que se utilicen para recrear su identidad con IA u otra tecnología en el futuro.

Con información de Expansión

Continuar leyendo

Tendencia

Copyright © 2024 Todos los derechos reservados Blanco y Negro Noticias