¡Síguenos en nuestras redes sociales!

Tecnología

Los CEO del mundo temen cómo se usan los datos en la IA

Cómo se protege la información o qué pasa con ella una vez que entra a un sistema de IA generativa son de las cuestiones más relevantes para los directivos globales.

Publicado

en

¿A dónde van a parar los datos de una empresa cuando utiliza herramientas de Inteligencia Artificial generativa? Esa pregunta es una de las razones por las que más de dos tercios de directores ejecutivos en todo el mundo se resisten a implementar esta tecnología en las operaciones de su compañía.

De acuerdo con un estudio en el que el IBM Institute for Business Value encuestó a más de 2,500 CEOs de más de 30 países y 26 industrias, el 68% de los encuestados dijo que para poder implementar estrategias con IA también se necesitan establecer soluciones para el cuidado y gobernanza de la data y no después.

Renzo Molina, líder de la Unidad de Business Transformation Services de IBM, menciona que para solventar este importante reto se necesita una plataforma empresarial sólo para la compañía, la cual le permita usar datos y modelos de forma segura “gobernándolos desde adentro”, es decir, con todas las medidas de privacidad que la empresa ejecuta en todos sus procesos.

Alejandra Sanabria, experta en implementación de IA, resalta que si bien hay empresas que quisieran utilizar Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés), como ChatGPT, en realidad les conviene utilizar modelos más acotados y que funcionan con sus propios datos, una herramienta conocida como Modelos de Lenguaje Pequeños (SLM).

“Usar un LLM tiene implicaciones financieras importantes y dependiendo de lo que ese cliente está buscando puede obtener un modelo a la medida sin la necesidad de que sea tan caro y tan abierto, lo que da mayor gobernanza, cuidando mucho la integridad de sus datos (…) Para matar una mosca no es necesario una bazooka”, explica la especialista.

Según datos de Grand View Research, el tamaño del mercado de los SLM se estimó en 7,760 millones de dólares en el 2023, mientras que entre el 2024 y el 2030 este sector tendrá un crecimiento del 15.6%.

Los especialistas también coinciden en que ha habido mucho miedo en torno de utilizar información propietaria, pensando que se puede disgregar en cualquier parte de internet, pero poco a poco va cambiando la mentalidad, pues tiene más peso el utilizarla para generar valor dentro de la organización.

Sarah Bird, directora de producto de Responsible AI en Microsoft, agrega que para minimizar este temor es necesario elegir a proveedores de tecnología con altos niveles de calidad y que sean simples de comprender para todos en la empresa.

México, un país que adopta la IA

En el documento también se resaltan otros desafíos que enfrentan las empresas de todo el mundo en términos de fuerza laboral, cultura y gobernanza, al tiempo que intentan implementar y escalar esta nueva tecnología dentro de sus organizaciones.

Un punto relevante es que México es uno de los países que más interés está teniendo en tomar los riesgos de implementar la IA generativa, pues cinco de cada 10 personas considera que de no hacerlo, se quedarán rezagados y por ello prefieren invertir en la tecnología, incluso antes de tener una comprensión clara de su valor.

En este contexto, el futuro de la IA en los lugares de trabajo se ve más relevante. En la actualidad, el 76% no va más allá de la experimentación o uso de asistentes copilotos, sin embargo, un 50% dijo que espera impulsar su crecimiento y expansión para el 2026.

La cultura laboral pasa por una nueva transformación

Aunado al reto que representa implementar IA de forma segura, el 46% de los directores ejecutivos consultados en México dijo que tiene la intención de contratar personal adicional para puestos relacionados con esta tecnología que requiere un mayor nivel de especialización.

No obstante, una de las problemáticas más apremiantes que han encontrado en este sentido es que el 55% dijo tener dificultad para encontrar quién ocupe esos puestos tecnológicos clave. Esto significa una necesidad extra de volver a capacitar a la fuerza laboral en los próximos tres años.

Y es que la implementación de la tecnología no sólo representa un desafío a nivel técnico, sino también uno en cuanto a cultura organizacional de la empresa y a la forma en que los empleados de las diferentes áreas se logran compenetrar con los recursos de la Inteligencia Artificial.

Al respecto, en el estudio se detalla que más de la mitad de los CEO de Latinoamérica (57%) y de México (59%) reconocen que el cambio cultural es más importante que superar los desafíos técnicos para convertirse en una organización basada en datos.

Si bien los directivos afirman que la adopción de la IA Generativa es fundamental para el éxito de sus empresas, también son conscientes de que las tecnologías están cambiando más rápido de lo que las personas pueden adaptarse.

Con información de Expansión

TR

Tecnología

Crece el uso de IA para recrear a personas que ya fallecieron 

Chatbots como Replika o HereAfterAI empiezan a cobrar relevancia en el mercado, pero también esto puede abrir brechas de ciberseguridad y cuestiona la ética de su uso.

Publicado

en

Aunque el uso de IA en este tema ha crecido, esto puede generar brechas de seguridad para los datos de las personas que fallecieron. (tolgart/Getty Images)

El duelo es una sensación que vivimos todos los seres humanos y en fechas como Día de muertos muchas personas recuerdan a sus seres queridos con ofrendas o visitando panteones, sin embargo, algunos empiezan a buscar recrear a sus seres queridos con Inteligencia Artificial.

El crecimiento del uso de chatbots que recrean la personalidad y la voz de personas fallecidas ha llamado la atención en el ámbito de la tecnología y la cultura popular. En fechas como Día de Muertos, esta tendencia adquiere una relevancia especial, ya que la interacción con los “recuerdos digitales” permite experimentar una nueva forma de nostalgia y conexión con seres queridos que ya no están.

Existen varios chatbots que han explorado esta idea, entre ellos Replika, una aplicación que inicialmente se diseñó como un chatbot amigable, pero que hoy en día permite a las personas crear simulaciones de conversaciones con personalidades o incluso seres queridos.

Otro caso es el de HereAfter AI, una aplicación que permite a los usuarios grabar historias, respuestas y expresiones propias para que sus familiares puedan “conversar” con ellos, incluso después de su fallecimiento. Este tipo de herramientas utilizan el aprendizaje automático para captar las particularidades de las respuestas, el tono y el estilo de cada persona, permitiendo una interacción que se siente más natural y auténtica.

Además, la popular aplicación Character IA puede crear a un ser querido de acuerdo a las indicaciones del usuario. Por ejemplo si quiero crear un avatar de mi papá que falleció a causa de la pandemia por Covid-19 es posible hacerlo, sólo debo decirle cómo se describiría a él mismo, qué gustos tiene e incluso podría integrar una foto de él para tener una interacción más cercana.

Paralelamente, la recreación de imágenes y videos también ha experimentado un avance significativo, con herramientas como DALL-E y Midjourney, que generan imágenes de cualquier concepto que el usuario desee, incluyendo la simulación de fotografías antiguas o la creación de retratos que “reviven” rostros del pasado.

Recurrir a estas herramientas para “traer a la vida” a quienes ya no están con nosotros, sobre todo en fechas como Día de Muertos, parece buena idea, aunque en realidad representa riesgos de ciberseguridad; de hecho, 67% de los mexicanos cree que la información personal de los fallecidos es particularmente vulnerable al robo de datos, según el estudio de Kaspersky: Superstición e inseguridad: cómo se relacionan los usuarios con el mundo digital.

Estas tecnologías plantean también algunas preguntas éticas y emocionales, ya que aunque pueden ofrecer consuelo y permitir revivir momentos importantes, también presentan riesgos en términos de privacidad y el manejo del duelo.

Además, la investigación de Kaspersky reveló que para un 31% de los encuestados en el país es aceptable recrear la imagen digital de un difunto con herramientas de IA para ayudar a los que se quedan a sobrellevar su pérdida; sin embargo, un 43% de los usuarios está en desacuerdo.

Y es que muchos consideran que ver imágenes de personas fallecidas recreadas con IA puede ser perturbador para sus seres queridos (69%); asimismo, que no es ético mantener en línea grabaciones de voz, video o imagen de un difunto sin su autorización previa o la de su familia (40%).

¿Qué está en riesgo?

De acuerdo con Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, “la vida digital y sus riesgos existen más allá de la muerte. Si los cibercriminales logran robar información de personas fallecidas que no está protegida pueden usarla con distintos fines maliciosos, como suplantar su identidad”.

Para cuidar de tu privacidad y la de tus difuntos en este Día de Muertos, la empresa de ciberseguridad recomienda:

Antes de usar alguna app de IA para “traer de vuelta” a algún ser querido busca un consenso con sus familiares o personas cercanas, piensa en cómo se pueden sentir con eso y cómo se puede honrar la memoria de alguien que ya no está, de manera respetuosa sin exponer su identidad y privacidad digital.

Si se ha decidido recrear la identidad digital de una persona fallecida con IA, recuerda descargar aplicaciones solo de tiendas oficiales, así como leer los permisos que solicitan, sus términos y condiciones. De lo contrario, puedes poner en riesgo tu información y la del difunto.

Y aunque pueda parecer una plática dificil, habla con tus seres queridos sobre cómo quieren que su huella digital sea protegida cuando mueran, qué se debe hacer con todos sus datos y cuentas almacenadas en línea, por ejemplo, si quieren que se eliminen de ciertas plataformas o si autorizan que se utilicen para recrear su identidad con IA u otra tecnología en el futuro.

Con información de Expansión

Continuar leyendo

Tecnología

OpenAI lanza, ChatGPT Search, su propio motor de búsqueda y competirá con Google

Con esta actualización del ChatGPT, “se podrá obtener rápida y oportunamente respuestas.

Publicado

en

OpenAI anunció el jueves que lanzará un buscador web como extensión de su ChatGPT, el sistema de inteligencia artificial (IA) generativa que desarrolló, y competirá así con Google, referencia en este rubro.

A diferencia del ChatGPT, que funciona en base a una cantidad finita de datos acumulados en una base, ChatGPT Search, el nuevo servicio de OpenAI, buscará elementos online para responder a las demandas de los usuarios.

Con esta actualización del ChatGPT, “se podrá obtener rápida y oportunamente respuestas, con links a fuentes relevantes en la web”, señaló la empresa en un posteo de blog.

Este cambio permite a OpenAI ofrecer información en tiempo real, algo que el ChatGPT no podía hacer hasta ahora.

Entre los datos que podrán buscarse pueden estar el pronóstico del tiempo, cotizaciones de acciones, resultados deportivos o noticias de último minuto, explicó la compañía.

Algunos ejemplos mostrados en el sitio de OpenAI se parecen mucho a los resultados obtenidos con Google o Google Maps, por ejemplo.

Desde su lanzamiento, los llamados “chatbots” como ChatGPT tenían la limitante de no ofrecer respuestas necesariamente actualizadas.

Con información de El Milenio

TR

Continuar leyendo

Tecnología

Legisladores de EU instan a evaluar la tecnología fotónica como posible amenaza china

La fotónica de silicio se basa en la luz para mover información dentro de los sistemas informáticos y tiene usos en sistemas de IA

Publicado

en

Un grupo bipartidista de legisladores estadounidenses instó este lunes al Departamento de Comercio a que examine las amenazas a la seguridad nacional que supone el desarrollo de la tecnología fotónica de silicio por parte de China, un campo de rápido desarrollo que podría acelerar la inteligencia artificial (IA).

En esencia, la fotónica de silicio se basa en la luz, en lugar de señales eléctricas, para mover información dentro de los sistemas informáticos y tiene usos en sistemas de inteligencia artificial donde se conectan decenas de miles de chips de computadora.

Las principales empresas de chips de IA como Nvidia y Advanced Micro Devices publicaron investigaciones sobre cómo integrar la fotónica en sus chips, mientras que la startup de Silicon Valley Lightmatter recaudó recientemente 400 millones de dólares para su tecnología fotónica, lo que elevó el valor de la empresa a 4,400 millones de dólares.

China también ha estado persiguiendo agresivamente la tecnología, y la provincia de Guangdong en las últimas semanas se unió a una serie de programas de financiación destinados a construir chips fotónicos en China, según los medios estatales.

EU podría modificar control de exportaciones por tecnología fotónica

El comité selecto de la Cámara de Representantes de Estados Unidos sobre China pidió este lunes al Departamento de Comercio que examine qué amenazas podría plantear el trabajo de China en fotónica y si las normas de control de las exportaciones deberían modificarse para proteger los esfuerzos de Estados Unidos.

“La naturaleza de doble uso de la tecnología fotónica la hace particularmente susceptible al desvío de uso militar por parte de actores problemáticos”, escribieron en su carta los representantes John Moolenaar, republicano, y Raja Krishnamoorthi, demócrata.

“China ha sido quizás el actor estatal más rápido en movilizar los recursos y alentar a los gobiernos locales y regionales a trabajar en tecnología fotónica”, aseguró Sunny Cheung, investigador asociado para estudios sobre China en la Fundación Jamestown que ha estudiado los esfuerzos de China.

“Hemos recibido la carta y responderemos a través de los canales apropiados”, dijo un portavoz del Departamento de Comercio.

Con información de Forbes

TR

Continuar leyendo

Tendencia

Copyright © 2024 Todos los derechos reservados Blanco y Negro Noticias