Innovación archivos - Laszlo Beke https://laszlobeke.com/category/innovacion/ Portal de Negocio y Tecnologia Thu, 02 Oct 2025 12:32:31 +0000 es hourly 1 https://wordpress.org/?v=6.8.3 195252526 ¡Sembrando innovación en el campo con tecnología e IA! https://laszlobeke.com/sembrando-innovacion-en-el-campo-con-tecnologia-e-ia/ https://laszlobeke.com/sembrando-innovacion-en-el-campo-con-tecnologia-e-ia/#respond Thu, 02 Oct 2025 12:32:24 +0000 https://laszlobeke.com/?p=8830 Se están dando los primeros pasos de una transformación para cambiar la forma en que se cultivan y se cosechan los alimentos. La evolución apunta hacia un hombre en el campo con tecnología y con la IA magnificando las soluciones. La realidad es que las nuevas tecnologías están allanando el camino para que granjas y […]

La entrada ¡Sembrando innovación en el campo con tecnología e IA! aparece primero en Laszlo Beke.

]]>
Se están dando los primeros pasos de una transformación para cambiar la forma en que se cultivan y se cosechan los alimentos. La evolución apunta hacia un hombre en el campo con tecnología y con la IA magnificando las soluciones. La realidad es que las nuevas tecnologías están allanando el camino para que granjas y fincas puedan autogestionarse, con una mínima intervención humana. La granja autónoma ya usa drones, IA y robots recolectores. Allí, el tractor no solo se conduce solo; su conjunto de sensores, cámaras y software analítico también decide constantemente dónde y cuándo aplicar fertilizantes o desherbar. Habrá más automatización, más uso de drones, más robótica; no habrá granjas sin agricultores, pero la IA aumentará significativamente la productividad de cada agricultor.

Muchas granjas modernas ya vienen utilizando tractores guiados por GPS y tecnología digital, en la forma de sistemas de software de gestión agrícola. Ahora, los avances en inteligencia artificial significan que el siguiente paso —la granja autónoma, con mínima intervención humana— finalmente está cobrando importancia. Podemos imaginar una granja donde flotas de tractores, drones y cosechadoras autónomas son guiadas por IA, la cual ajusta las operaciones minuto a minuto basándose en datos del suelo y el clima. Los sensores rastrean la salud de las plantas en miles de hectáreas, activando los sprays o riegos precisos justo donde se necesitan. Los agricultores podrían cambiar largas horas en la cabina por la supervisión de paneles y la toma de decisiones de alto nivel. Cada semilla, gota de agua y onza de fertilizante se optimizaría para aumentar la producción y proteger la tierra, gracias a un sistema conectado que se vuelve más inteligente con cada temporada.

Los obstáculos

Gran parte de la tecnología para impulsar una revolución de la agricultura autónoma ya existe o está casi lista para su lanzamiento al mercado. Una encuesta de McKinsey de 2022 reveló que alrededor de dos tercios de las explotaciones agrícolas estadounidenses utilizan sistemas digitales para gestionar sus operaciones, pero solo el 15 % de las grandes explotaciones y tan solo el 4 % de las pequeñas han invertido significativamente en robótica o automatización. Se prevé que el uso de robots aumentará drásticamente en los próximos años. Por supuesto, a pesar de la promesa de las herramientas digitales y las máquinas autónomas, los costos son una gran barrera.

La conectividad es otro obstáculo. Los robots necesitan comunicarse entre sí. Transferir datos a la nube requiere internet de banda ancha, y desde un campo remoto, probablemente deba ser inalámbrico. Pero el internet inalámbrico y la banda ancha terrestre no están disponibles en todas las zonas rurales de Estados Unidos. En los países en desarrollo, la brecha digital es aún mayor. Aun cuando, algunos agricultores están experimentando con la computación de borde, un diseño de red que almacena los datos más cerca de su origen. Pero los expertos afirman que, en última instancia, las explotaciones agrícolas necesitan estar conectadas a sistemas basados ​​en la nube.A continuación, se mencionan algunos de los componentes esenciales de la visión de la granja autónoma.

Tractores autónomos

Los tractores que pueden plantar, labrar y cosechar con poca o solo supervisión humana remota están pasando del prototipo a la práctica. Los fabricantes tradicionales y los emprendimientos tecnológicos están haciendo grandes apuestas:

  • Un tractor totalmente eléctrico con conductor opcional que ahora trabaja en viñedos – lanzado por Monarch Tractor.
  • Una desherbadora y cultivadora mecánica guiada por IA que utiliza visión artificial y robótica para identificar y arrancar las malas hierbas, funcionando de día y de noche, lo cual reduce la necesidad de herbicidas- desarrollado por Farmwise.
  • El enfoque progresivo, añadiendo capas de automatización para ayudar a los agricultores a familiarizarse con la tecnología y a ver resultados inmediatos, a la vez que allana el camino hacia la autonomía total- adoptado por Deere & Co. Para reducir el uso de herbicidas hasta en dos tercios, algunos de los pulverizadores grandes de Deere utilizan la tecnología «See & Spray», que incorpora visión artificial y aprendizaje automático para controlar las malezas en cultivos de soja, maíz y algodón. Entrenado con miles de imágenes para identificar malezas en tiempo real y controlar las boquillas individuales para que pulvericen solo donde sea necesario.

Robots y drones recolectores de frutas

La automatización, que ahora se utiliza con mayor frecuencia en grandes explotaciones agrícolas con trigo o maíz distribuidos en hileras ordenadas, supone un mayor reto para cultivos como frutas y bayas, que maduran en diferentes momentos y crecen en árboles o arbustos. En cultivos especializados, el pequeño ejército de desherbadores y recolectores podría pronto ser reemplazado por tan solo una o dos personas que supervisen la tecnología. Eso pudiera ocurrir dentro de una década.

Frutas frágiles como las fresas y las uvas plantean un gran desafío. Tortuga, un emprendimiento de tecnología agrícola, desarrolló un robot para realizar esta tarea. El robot se asemeja al Mars Rover de la NASA, con neumáticos anchos y brazos extendidos. Se desplaza sobre un lecho de fresas o uvas y utiliza un largo brazo de pinza para alcanzar la vid y cortar una sola baya o un racimo de uvas, colocándolos con cuidado en una cesta. Tevel Aerobotics Technologies, con sede en Israel desarrolló  Robots Autónomos Voladores que pueden podar, ralear y cosechar cultivos. Mediante IA y visión artificial, los robots localizan la fruta, determinan si está madura y la arrancan del árbol.

Teledetección, análisis de imágenes

Los drones y los satélites, guiados por inteligencia artificial, al capturar imágenes detalladas y lecturas de sensores, crean «gemelos digitales»: réplicas virtuales de los campos que muestran exactamente dónde los cultivos están demasiado secos, demasiado húmedos o afectados por enfermedades o plagas. Esta tecnología permite a los agricultores detectar problemas a tiempo y enfocar las intervenciones con mayor precisión, reduciendo el desperdicio y aumentando la producción. Algunos elementos de este sistema ya están en funcionamiento, el siguiente paso es una red de máquinas totalmente conectada que no solo detecta problemas, sino que también aprende de ellos. Todo apunta a un futuro donde tractores y drones trabajan en conjunto, realizando tareas como plantar o fumigar, a la vez que alimentan continuamente nuevos datos a modelos de IA adaptados a las condiciones de cada explotación.

Inteligencia del suelo

Un cultivo es tan saludable como su suelo y por ello tradicionalmente, los agricultores han enviado muestras de la capa superficial del suelo a un laboratorio para su análisis. Una nueva tecnología que utiliza sensores para escanear el suelo in situ permite un diagnóstico preciso que abarca grandes áreas de las explotaciones, en lugar de controles puntuales. El diagnóstico incluye análisis microbiano, así como la identificación de zonas de compactación del suelo, cuando este se vuelve denso, lo que dificulta la infiltración de agua, la penetración de las raíces y el intercambio de gases. En lugar de fumigar o regar un campo entero, el agricultor puede determinar con precisión dónde fumigar, qué dosis usar y el mejor momento para la intervención.

La cerca virtual

Las nuevas tecnologías también están transformando la gestión ganadera. La creación de cercas virtuales, que se están empezando a adoptar en EE. UU., Europa y Australia, tiene el potencial de ayudar a los ganaderos a ahorrar dinero en cercas costosas y a gestionar mejor sus rebaños. El ganado recibe collares con GPS y se dibujan límites virtuales en un mapa digital. Si un animal se acerca al límite virtual, recibe una advertencia auditiva. Si continúa, recibe una descarga eléctrica leve pero firme.

Se hace referencia a Drones, AI and Robot Pickers: Meet the Fully Autonomous Farm. La imagen es cortesía de Microsoft  Copilot.

La entrada ¡Sembrando innovación en el campo con tecnología e IA! aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/sembrando-innovacion-en-el-campo-con-tecnologia-e-ia/feed/ 0 8830
¿Agentes IA y Modelos IA pequeños (SLM), la combinación ideal? https://laszlobeke.com/agentes-ia-y-modelos-ia-pequenos-slm-la-combinacion-ideal/ https://laszlobeke.com/agentes-ia-y-modelos-ia-pequenos-slm-la-combinacion-ideal/#respond Sat, 20 Sep 2025 18:43:00 +0000 https://laszlobeke.com/?p=8817 Nuestra visión ha sido que, en el aprovechamiento de Inteligencia Artificial, las empresas usarían: (1) inicialmente la IA como un Asistente, (2) los Agentes de IA como paso siguiente y (3) finalmente aparecerían los modelos adaptados para la empresa, por sector de negocios y por función interna.  Los dos primeros componentes ya están plena marcha […]

La entrada ¿Agentes IA y Modelos IA pequeños (SLM), la combinación ideal? aparece primero en Laszlo Beke.

]]>
Nuestra visión ha sido que, en el aprovechamiento de Inteligencia Artificial, las empresas usarían: (1) inicialmente la IA como un Asistente, (2) los Agentes de IA como paso siguiente y (3) finalmente aparecerían los modelos adaptados para la empresa, por sector de negocios y por función interna.  Los dos primeros componentes ya están plena marcha y en BekeSantos (nuestra empresa) estamos trabajando con ellos en el Proyecto Cronos de Introducción y Aprovechamiento de la IA en la empresa. Para el tercer componente están comenzando a aparecer y utilizarse los SLM (modelos pequeños) y parecieran los primeros pasos de los eventuales modelos empresariales.  Expertos reconocidos indican que los modelos de lenguaje pequeños son el futuro de la IA agéntica.

La ralentización del progreso en la vanguardia de la IA generativa es una señal de que los LLM no necesariamente están cumpliendo con las extraordinarias expectativas. Un indicio aún más relevante es el auge de alternativas más pequeñas y ágiles, que están ganando terreno en el mundo corporativo. Muchas empresas prefieren modelos en la medida que los puedan adaptar a sus necesidades específicas. Estos llamados modelos de lenguaje pequeño (SLM) son más económicos que los LLM multipropósito, cuya inteligencia casi divina pudiera ser superflua para muchas aplicaciones.

No existe una definición precisa de qué constituyen modelos de lenguaje pequeños y grandes. La distinción se reduce a la cantidad de parámetros con los que se entrenan, es decir, la cantidad de configuraciones numéricas en el cerebro de un modelo que le ayudan a interpretar los datos. Las mejoras en el entrenamiento de los modelos de lenguaje de aprendizaje de los (SLM) les han permitido alcanzar las capacidades de los modelos de lenguaje de aprendizaje (LLM). Los modelos pequeños son cada vez más «enseñados» por los más grandes, en lugar de tener que explorar la web para aprender por sí mismos. Un modelo de 9 mil millones de parámetros llamado Nvidia Nemotron Nano, lanzado recientemente por el fabricante de chips de IA, supera a un modelo Llama lanzado en abril por Meta, el gigante de las redes sociales, el cual es 40 veces más grande. La puesta al día se está convirtiendo en una rutina. Los modelos más pequeños de hoy son mucho más capaces que los modelos más grandes del año pasado. La economía es otra razón de la creciente popularidad de los SLM, por cuanto ellos permiten ahorrar dinero al realizar tareas discretas y repetibles.

Modelos para las empresas

Un mejor rendimiento de los modelos pequeños (SLM) ha atraído a clientes empresariales. Gartner, la reconocida consultora de TI, afirma que las fallas bien conocidas en los LLM, como las alucinaciones, han generado «fatiga del usuario». En cambio, las empresas buscan modelos más especializados, optimizados con datos específicos del sector. Este año, se proyecta que la demanda corporativa de estos modelos crecerá el doble de rápido que la de los LLM, aunque desde una base mucho menor. Gartner prevé que, con el tiempo, más de estos modelos especializados sean desarrollados internamente por las empresas.

LLM vs SML

Resulta curioso que, mientras los laboratorios estadounidenses de IA invierten enormes sumas en el desarrollo de LLM omniscientes, importantes sectores del mundo creen que el futuro está en los pequeños. Un nuevo laboratorio de investigación respaldado por los Emiratos Árabes Unidos creó un SLM de código abierto llamado K2 Think, que, según afirma, supera a modelos 20 veces más grandes. China también está interesada en los SLM de código abierto. Pareciera que los laboratorios estadounidenses de IA se han centrado demasiado en los LLM en su afán por alcanzar la inteligencia artificial general (IAG). Han pasado por alto el hecho que las empresas tienen dificultades para adoptar la IA generativa incluso para tareas cotidianas; la omnisciencia de la IAG podría dejarlas perplejas.

Los usuarios de IA parecen estar divididos sobre las ventajas relativas de los SLM y los LLM. Algunas empresas consideran que los modelos pequeños son más fáciles de gestionar y manipular con sus propios datos que los monolíticos. Otras prefieren estos últimos para las tareas más complejas. Será interesante ver cómo se desarrolla esto. Cuantos más SLM utilicen los primeros usuarios, menos infraestructura en la nube podría ser necesaria, lo que plantearía serias dudas sobre la inversión de los híper escaladores en centros de datos. Dicho esto, los LLM ayudan a entrenar a los SLM, por lo que, al menos por ahora, ambos siguen estando intrínsecamente vinculados.

SML: Agentes IA

Además de ser tan fáciles de ejecutar en los sistemas informáticos internos de una empresa como a través de un proveedor de servicios en la nube, los SLM también pueden ser más útiles para los agentes de IA, que realizan tareas laborales junto con o en lugar de los humanos. Su menor tamaño los hace especialmente adecuados para la IA en smartphones, coches autónomos, robots y otros dispositivos donde la eficiencia energética y la velocidad son prioritarias.

Los SLM podrían volverse aún más atractivos a medida que las empresas implementen más agentes de IA. Los SLM son lo suficientemente potentes como para gestionar tareas agénticas y más económicos (por ejemplo, un modelo de 7000 millones de parámetros puede ser de diez a treinta veces más barato de ejecutar que un modelo hasta veinticinco veces más grande). Afirma que los SLM podrían conducir a un enfoque «similar a Lego» para la creación de agentes, con empresas que utilicen pequeños expertos especializados, en lugar de una inteligencia LLM monolítica.

Por otro lado, para ilustrar la economía, se puede señalar al producto Docling de IBM, el cual transforma documentos PDF, como recibos, en datos almacenables. Se ejecuta en un modelo «diminuto» con unos 250 millones de parámetros. Lo consideran una herramienta útil, pero que no sería rentable si se ejecutara en un LLM. Los modelos pequeños también pueden funcionar en variedades de chips más económicas. Ellos pueden utilizar unidades centrales de procesamiento (CPU), los caballos de batalla de la informática general, en lugar de unidades de procesamiento gráfico (GPU).

El futuro – dispositivos

Independientemente de si los SLM acaban desplazando a los LLM o no, la heterogeneidad está en aumento. Los LLM omniscientes seguirán siendo importantes para aplicaciones de consumo como ChatGPT de OpenAI. Sin embargo, incluso OpenAI está cambiando su enfoque. GPT-5 cuenta con modelos internos de diferentes tamaños y potencias, que utiliza según la complejidad de la tarea. A medida que los SLM se vuelven más eficaces, también podrían mejorar la reputación de la IA en el dispositivo. Sin embargo, el enfoque de la empresa de utilizar SLM para realizar algunas tareas en el iPhone mientras delega las más complejas a la nube podría ser el futuro.

Por ahora, la mayor parte de la atención se centra en los LLM. Aunque gigantes de la nube como Microsoft y Google han creado modelos extremadamente pequeños, la creencia de que el status quo persistirá ha ayudado a justificar las grandes cantidades que están invirtiendo en centros de datos para entrenar y alojar los modelos más grandes. Esto podría ser una visión miope. Dados los méritos relativos de los SLM, el enfoque de Apple de ir con calma podría resultar justificado a largo plazo.

Se hace referencia a Faith in God-like large language models is waning. La imagen es cortesía de Microsoft Copilot.

La entrada ¿Agentes IA y Modelos IA pequeños (SLM), la combinación ideal? aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/agentes-ia-y-modelos-ia-pequenos-slm-la-combinacion-ideal/feed/ 0 8817
¡Un modelo IA puede predecir el riesgo de enfermedades a lo largo de la vida! https://laszlobeke.com/un-modelo-ia-puede-predecir-el-riesgo-de-enfermedades-a-lo-largo-de-la-vida/ https://laszlobeke.com/un-modelo-ia-puede-predecir-el-riesgo-de-enfermedades-a-lo-largo-de-la-vida/#respond Thu, 18 Sep 2025 22:49:46 +0000 https://laszlobeke.com/?p=8814 Nuestra dedicación es principalmente al uso de la IA en el mundo empresarial, pero es importante ver avances en otros sectores, ya que muchas veces inspiran ideas para nosotros o nuestras empresas.  En la medicina, gran parte del arte consiste en determinar, mediante un interrogatorio detallado y un examen físico, qué enfermedad ha contraído un […]

La entrada ¡Un modelo IA puede predecir el riesgo de enfermedades a lo largo de la vida! aparece primero en Laszlo Beke.

]]>
Nuestra dedicación es principalmente al uso de la IA en el mundo empresarial, pero es importante ver avances en otros sectores, ya que muchas veces inspiran ideas para nosotros o nuestras empresas.  En la medicina, gran parte del arte consiste en determinar, mediante un interrogatorio detallado y un examen físico, qué enfermedad ha contraído un paciente. Mucho más difícil, pero no menos deseable, sería identificar qué enfermedades podría desarrollar un paciente en el futuro. Esto es lo que afirma hacer el equipo responsable de Delphi-2M, el cual puede predecir cuál de más de 1.000 enfermedades podría padecer una persona a lo largo de su vida, con un nuevo modelo de inteligencia artificial (IA), cuyos detalles se publicaron en Nature el 17 de septiembre 2025.

Aunque Delphi-2M, aún no está listo todavía para su implementación en hospitales, sus creadores esperan que en el futuro permita a los médicos predecir la probabilidad de que sus pacientes padezcan alguna de más de 1.000 enfermedades diferentes, como el Alzheimer, el cáncer y los infartos, que afectan a millones de personas cada año. Además de ayudar a identificar a los pacientes de alto riesgo, también podría ayudar a las autoridades sanitarias a asignar presupuestos para áreas de enfermedades que podrían necesitar fondos adicionales en el futuro.

El modelo fue desarrollado por equipos del Laboratorio Europeo de Biología Molecular (EMBL) en Cambridge y el Centro Alemán de Investigación del Cáncer en Heidelberg. Se inspira en los grandes modelos lingüísticos (LLM), como GPT-5, que impulsa ChatGPT, capaces de producir prosa fluida. Los LLM están entrenados para detectar patrones en enormes cantidades de texto extraído de internet, lo que les permite seleccionar la palabra con mayor probabilidad de aparecer a continuación en una oración. Los creadores de Delphi-2M razonaron que un modelo de IA alimentado con grandes cantidades de datos de salud humana podría tener un poder predictivo similar.

En muchos aspectos, el diseño de los LLM establecidos era adecuado para la tarea. Sin embargo, un ajuste importante que se necesitaba era enseñar a dicho modelo a tener en cuenta el tiempo transcurrido entre eventos en la vida de un paciente. En el texto escrito, las palabras consecutivas se suceden inmediatamente; No ocurre lo mismo con los diagnósticos en el historial de un paciente. Por ejemplo, la hipertensión arterial tras una prueba de embarazo positiva requiere interpretaciones diferentes según si ambos diagnósticos están separados por semanas (en cuyo caso el embarazo puede verse afectado) o años. Este ajuste se realizó sustituyendo la parte de un LLM que codifica la posición de una palabra por otra que codifica la edad de la persona. (No estuvo exento de contratiempos: en una versión inicial del modelo, a veces se predecían nuevos diagnósticos tras el fallecimiento de una persona).

Delphi-2M se entrenó posteriormente con datos de 400.000 personas del Biobanco del Reino Unido, una base de datos que contiene posiblemente el conjunto de datos biológicos humanos más completo del mundo. Se le asignaron al modelo la sincronización y la secuencia de los códigos CIE-10, la abreviatura médica internacional que utilizan los médicos para registrar los diagnósticos oficialmente reconocidos, que representan las 1.256 enfermedades diferentes que aparecían en el conjunto de datos del Biobanco. El modelo se validó posteriormente con datos de las 100.000 personas restantes del Biobanco antes de probarse en mayor profundidad en los historiales médicos daneses, conocidos por su larga duración y exhaustividad. En este caso, el equipo utilizó datos de 1,9 millones de daneses desde 1978, lo que garantizó una muestra mucho más diversa y representativa que la que podía proporcionar el Biobanco del Reino Unido.

Para implementar las aplicaciones en el mundo real todavía falta un buen trecho. Delphi-2M primero deberá superar un período de prueba mucho más riguroso que brinde a los médicos la oportunidad de explorar si produce mejores resultados para sus pacientes. Este proceso podría llevar muchos años. Por impresionante que parezca Delphi-2M, no es el único pronosticador artificial de salud disponible. Por ejemplo, un modelo de IA llamado Foresight, desarrollado originalmente en el King’s College de Londres en 2024, también utiliza los historiales médicos de los pacientes para predecir futuros eventos de salud. (Una versión más grande del proyecto se suspendió en junio debido a preocupaciones de que NHS England no había buscado las aprobaciones adecuadas cuando le dio al equipo de Foresight acceso a los datos). El modelo ETHOS, que se está desarrollando en la Universidad de Harvard, también tiene objetivos similares.

Se hace referencia a A new AI model can forecast a person’s risk of diseases across their life. También aparece en mi Portal . La imagen es cortesía de Microsoft Copilot.

La entrada ¡Un modelo IA puede predecir el riesgo de enfermedades a lo largo de la vida! aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/un-modelo-ia-puede-predecir-el-riesgo-de-enfermedades-a-lo-largo-de-la-vida/feed/ 0 8814
¿La IA también es creativa? https://laszlobeke.com/la-ia-tambien-es-creativa/ https://laszlobeke.com/la-ia-tambien-es-creativa/#respond Sat, 06 Sep 2025 15:46:33 +0000 https://laszlobeke.com/?p=8806 Una de las grandes inquietudes que se manifiestan con frecuencia es como identificar y desarrollar la creatividad en el ser humano. La Inteligencia Artificial nace para tratar de lograr que una máquina se comporte como un ser humano. El camino más viable que se ha logrado para ello es tratar de replicar el cerebro humano.  […]

La entrada ¿La IA también es creativa? aparece primero en Laszlo Beke.

]]>
Una de las grandes inquietudes que se manifiestan con frecuencia es como identificar y desarrollar la creatividad en el ser humano. La Inteligencia Artificial nace para tratar de lograr que una máquina se comporte como un ser humano. El camino más viable que se ha logrado para ello es tratar de replicar el cerebro humano.  Por esa razón, la IA termina siendo un excelente medio para el estudio del cerebro humano. La IA ha sorprendido, incluso a sus propios creadores, haciendo cosas para las que no se había planificado en su construcción. Una muy importante para la cual no había sido diseñada, fue la  capacidad que demostró ChatGPT para generar programas de computación. Ahora, se está planteando que la IA demuestra creatividad en la creación de imágenes y se están analizando los ingredientes ocultos que pueden estar detrás de esta creatividad de la IA.    

Curiosamente, las tareas físicas que son fáciles para los humanos resultan muy difíciles para los robots, mientras que los algoritmos son cada vez más capaces de imitar nuestro intelecto. En particular, los generadores de imágenes están diseñados para imitar y replicar sus datos de entrenamiento, así que es raro que la IA no cumpla con ese objetivo. Una sorpresa que ha desconcertado a los investigadores durante mucho tiempo es la habilidad de estos algoritmos para desarrollar su propia y peculiar creatividad. Un estudio académico reciente sugiere que esta creatividad es una consecuencia inevitable de su arquitectura.

Trataré de hacer un resumen de las observaciones y estudios que llevaron a dos investigadores a pensar en la posibilidad de identificar la creatividad en los modelos de IA:

  • Todo partió de la observación que las herramientas de generación de imágenes (donde se utiliza un modelo de difusión), en algunos casos y en sus comienzos producían pinturas con seres humanos con seis dedos.
  • Ese hecho llevó a un investigador a asociarlo con el fenómeno de morfogénesis. La morfogénesis es el proceso biológico mediante el cual un organismo unicelular o pluricelular adquiere la forma característica de su especie. En el ser humano, cada organismo resultante tiene la forma de la especie, cada uno es singular, pero algunos niños nacen con un dedo adicional.
  • El modelo de difusión, que utiliza la IA para generar imágenes usa dos atajos técnicos: localidad y equivariancia tradicional
  • Para probar la hipótesis de que la localidad y la equivariancia conducen a la creatividad, los investigadores diseñaron un sistema que solo optimizara la localidad y la equivariancia.
  • Este sistema (el cual no es un modelo de IA) logró replicar de forma idéntica los resultados de los modelos de difusión entrenados con una precisión promedio del 90 %, un resultado inédito en el aprendizaje automático.
  • Los resultados parecen respaldar la hipótesis del investigador de que la localidad y la equivariancia conducen a la creatividad .
  • La IA permite estudiar el cerebro humano y seguramente tendremos más conocimiento y más sorpresas a futuro.

Para los que tienen mayor curiosidad, en el resto del artículo se describe todo el proceso seguido con mayor detalle.

Modelos de Difusión

Los modelos de difusión, que son la columna vertebral de las herramientas de generación de imágenes como DALL·E, Imagen y Stable Diffusion, están diseñados para generar copias exactas de las imágenes con las que se han entrenado. En la práctica, sin embargo, parecen improvisar, combinando elementos dentro de las imágenes para crear algo nuevo: no solo manchas de color sin sentido, sino imágenes coherentes con significado semántico. Esta es la «paradoja» tras los modelos de difusión: Si funcionaran a la perfección, deberían simplemente memorizar, pero no lo hacen; de hecho, son capaces de producir nuevas muestras. Para generar imágenes, los modelos de difusión utilizan un proceso conocido como eliminación de ruido. Convierten una imagen en ruido digital (una colección incoherente de píxeles) y luego la reensamblan. Es como triturar repetidamente un cuadro hasta que solo queda un montón de polvo fino, para luego recomponerlo. Durante años, los investigadores se han preguntado: si los modelos simplemente se reensamblan, ¿Cómo surge la novedad? Es como reensamblar un cuadro triturado y convertirlo en una obra de arte completamente nueva.

Ahora, dos físicos han hecho una afirmación sorprendente: son las imperfecciones técnicas del propio proceso de eliminación de ruido las que dan lugar a la creatividad de los modelos de difusión. El dúo desarrolló un modelo matemático de modelos de difusión entrenados para demostrar que su supuesta creatividad es, de hecho, un proceso determinista, una consecuencia directa e inevitable de su arquitectura.

Morfogénesis – Patrón de Turing para los humanos

Una forma de comprender el desarrollo de embriones en humanos y otros animales es a través de lo que se conoce como patrón de Turing. Los patrones de Turing explican cómo los grupos de células pueden organizarse en órganos y extremidades distintos para cada persona. Fundamentalmente, esta coordinación se lleva a cabo a nivel local. No hay un director general que supervise los billones de células para garantizar que todas se ajusten a un plan corporal final. En otras palabras, las células individuales no tienen un plano corporal definido en el que basar su trabajo. Simplemente actúan y realizan correcciones en respuesta a las señales de sus vecinas. Este sistema ascendente suele funcionar sin problemas, pero de vez en cuando falla, como, por ejemplo, al producir manos con dedos adicionales. Estamos hablando de morfogénesis, los procesos por los cuales los sistemas vivos se autoensamblan.

Atajos de  los modelos de difusión

Cuando las primeras imágenes generadas por IA empezaron a aparecer en línea, muchas parecían pinturas surrealistas que representaban humanos con dedos adicionales. Esto inmediatamente hizo que el investigador Kamb pensara en la morfogénesis. Para entonces, los investigadores de IA sabían que los modelos de difusión recurren a un par de atajos técnicos al generar imágenes:

  1. Localidad – solo prestan atención a un solo grupo, o «parche», de píxeles a la vez.
  2. Equivariancia traslacional – la adherencia de una regla estricta al generar imágenes: si se desplaza una imagen de entrada solo un par de píxeles en cualquier dirección, por ejemplo, el sistema se ajustará automáticamente para realizar el mismo cambio en la imagen que genera. Esta característica es la forma en que el modelo preserva la estructura coherente; sin ella, es mucho más difícil crear imágenes realistas.

En parte debido a estas características, los modelos de difusión no prestan atención a dónde encajará un parche en particular en la imagen final. Simplemente se centran en generar un parche a la vez y luego los ajustan automáticamente en su lugar mediante un modelo matemático conocido como función de puntuación, que puede considerarse como un Turing digital. Durante mucho tiempo, los investigadores han considerado la localidad y la equivariancia como simples limitaciones del proceso de eliminación de ruido, peculiaridades técnicas que impedían que los modelos de difusión crearan réplicas perfectas de las imágenes. No las asociaban con la creatividad, que se consideraba un fenómeno de orden superior.

La localidad y la equivariancia conducen a la creatividad – la máquina ELS

El investigador Kamb desarrolló la hipótesis de que la localidad y la equivariancia conducen a la creatividad. Esto planteó una tentadora posibilidad experimental: si lograba diseñar un sistema que solo optimizara la localidad y la equivarianza, debería comportarse como un modelo de difusión. Este experimento fue el eje central de un nuevo artículo, escrito por Kamb y Ganguli. Kamb y Ganguli denominan a su sistema la máquina de puntuación local equivariante (ELS). No se trata de un modelo de difusión entrenado, sino de un conjunto de ecuaciones que pueden predecir analíticamente la composición de imágenes denominadas basándose únicamente en la mecánica de la localidad y la equivarianza. Posteriormente, tomaron una serie de imágenes convertidas a ruido digital y las procesaron tanto con la máquina ELS como con varios modelos de difusión potentes, como ResNets y UNets. Los resultados fueron impactantes: en general, la máquina ELS logró replicar de forma idéntica los resultados de los modelos de difusión entrenados con una precisión promedio del 90 %, un resultado inédito en el aprendizaje automático.

Los resultados parecen respaldar la hipótesis de Kamb:  En cuanto se impone la localidad, [la creatividad] se automatiza; surge de la dinámica de forma completamente natural. Los mismos mecanismos que restringieron el margen de atención de los modelos de difusión durante el proceso de eliminación de ruido —obligándolos a centrarse en áreas individuales, independientemente de su ubicación final— son los mismos que posibilitaron su creatividad. El fenómeno de los dedos adicionales observado en los modelos de difusión fue, de manera similar, una consecuencia directa de la hiperfijación del modelo en la generación de áreas locales de píxeles sin un contexto más amplio.

Creando Creatividad

Por primera vez, investigadores han demostrado cómo la creatividad de los modelos de difusión puede considerarse un subproducto del propio proceso de eliminación de ruido, un proceso que puede formalizarse matemáticamente y predecirse con un grado de precisión sin precedentes. Es casi como si los neurocientíficos hubieran introducido a un grupo de artistas humanos en una máquina de resonancia magnética y hubieran encontrado un mecanismo neuronal común detrás de su creatividad, que pudiera describirse como un conjunto de ecuaciones. La creatividad humana y la de la IA pueden resultar no siendo tan diferentes.

Opinión de los expertos

Los expertos entrevistados para el artículo coincidieron en que, si bien el artículo de Kamb y Ganguli arroja luz sobre los mecanismos que subyacen a la creatividad en los modelos de difusión, aún queda mucho por descubrir. Por ejemplo, los grandes modelos lingüísticos y otros sistemas de IA también parecen mostrar creatividad, pero no aprovechan la localidad ni la equivarianza.

Se hace referencia a The Hidden Ingredients Behind AI’s Creativity. La imagen es cortesía de Microsoft Copilot.

La entrada ¿La IA también es creativa? aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/la-ia-tambien-es-creativa/feed/ 0 8806
“La IA directamente en los dispositivos” https://laszlobeke.com/la-ia-directamente-en-los-dispositivos/ https://laszlobeke.com/la-ia-directamente-en-los-dispositivos/#respond Thu, 14 Aug 2025 18:12:02 +0000 https://laszlobeke.com/?p=8791 La velocidad y la magnitud de los cambios en el campo de la IA no cesan de asombrar y obligan a recalibrar las previsiones futuras. Desde sus inicios, la IA generativa, como ChatGPT, se ha ejecutado principalmente en la nube: grandes centros de datos gestionados por grandes empresas. En ese entorno, la IA depende de […]

La entrada “La IA directamente en los dispositivos” aparece primero en Laszlo Beke.

]]>
La velocidad y la magnitud de los cambios en el campo de la IA no cesan de asombrar y obligan a recalibrar las previsiones futuras. Desde sus inicios, la IA generativa, como ChatGPT, se ha ejecutado principalmente en la nube: grandes centros de datos gestionados por grandes empresas. En ese entorno, la IA depende de computadoras de alto consumo eléctrico, conexiones robustas a internet y datos centralizados. Pero ahora, la IA está comenzando a integrarse directamente en los propios dispositivos, impulsada por avances en modelos de IA, herramientas intuitivas y factores ideológicos. Esta transformación tiene amplias implicaciones para la geopolítica de la IA.

Bien sea para uso corporativo o personal, la IA en dispositivos es fundamentalmente diferente de la IA basada en la nube. Al ejecutarse en un dispositivo propio, la IA ya no requiere grandes ordenadores de alto consumo eléctrico, una conexión a internet fiable ni hardware especialmente diseñado para funcionar. Desde la perspectiva del usuario, se puede dar acceso a la IA en el dispositivo de forma más segura y privada a todos los datos del mismo, incluidos mensajes, fotos y ubicación en tiempo real, sin riesgo de vulnerar la privacidad. Por supuesto, los modelos de IA más grandes y avanzados podrían no caber en un portátil estándar. Pero a medida que las computadoras portátiles y los dispositivos móviles siguen mejorando, y los modelos de IA se siguen miniaturizando, un porcentaje cada vez mayor de casos de uso de IA serán viables en dispositivos.

Geopolíticamente, la IA en dispositivos alterará gran parte del cálculo actual. A medida que la IA se traslada de la nube a los dispositivos, la infraestructura nacional de IA podría desempeñar un papel menos central. Ya existen algunos informes sobre el exceso de capacidad de IA en China. Por el contrario, el sur global podría tener la oportunidad de dar un salto cualitativo: así como algunos países prescindieron del internet fijo y optaron directamente por las conexiones móviles, también los países en desarrollo podrían prescindir de los costosos centros de datos de IA y simplemente confiar en dispositivos compatibles con IA.

Si bien los operadores de la nube podrían tener menos importancia, los fabricantes de dispositivos tendrán mayor relevancia. A nivel mundial, Estados Unidos está actualmente sobrerrepresentado, con Apple, Google, Microsoft y una serie de otros fabricantes de dispositivos relevantes. China ha tenido históricamente menos relevancia: solo Xiaomi acapara la atención internacional, con menos del 12 % del mercado móvil mundial. Dicho esto, diversas empresas están desarrollando dispositivos de IA de nueva generación. Si alguna IA cobra impulso (quizás con su IA impulsada por teléfonos conectados), los países que inventen dispositivos de IA exitosos se atribuirán el liderazgo mundial en IA.

Una posibilidad podría surgir de las indicaciones del sistema: instrucciones breves y escritas que se dan a los modelos de IA para guiar su comportamiento y tono. Todas las IA utilizan indicaciones del sistema; actualmente, estas son escritas por las empresas que las fabrican. Quizás en el futuro existan indicaciones nacionales del sistema: de la misma manera que todos los dispositivos inteligentes siguen actualmente la configuración de la zona horaria de la ubicación actual del usuario, también podríamos imaginar que todos los dispositivos de IA sigan la configuración de las indicaciones del sistema y del país de la ubicación actual del usuario.

A nivel social, los creadores de IA en dispositivos tienen incentivos diferentes a los de IA en la nube. En particular, los proveedores de IA en la nube podrían estar optimizando sus sistemas para incentivar a los usuarios a usarlas con mayor frecuencia, siguiendo los mismos incentivos financieros que los proveedores de redes sociales. Por el contrario, la IA integrada en el dispositivo está incentivada a añadir más valor a la compra del dispositivo por parte del cliente, pero no es probable que el fabricante del dispositivo obtenga ingresos adicionales por cada hora de uso incremental. Por lo tanto, hay motivos para un optimismo cauteloso: la IA integrada en el dispositivo podría estar mejor alineada con la mejor versión del usuario, en lugar de con su versión más frecuente.

Se hace referencia The geopolitics of on-device AI. La imagen es cortesía de Microsoft Copilot.

La entrada “La IA directamente en los dispositivos” aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/la-ia-directamente-en-los-dispositivos/feed/ 0 8791
¿Qué es “Programación Vibe” y cuáles son sus usos? https://laszlobeke.com/que-es-programacion-vibe-y-cual-es-su-uso/ https://laszlobeke.com/que-es-programacion-vibe-y-cual-es-su-uso/#respond Sat, 26 Jul 2025 15:19:56 +0000 https://laszlobeke.com/?p=8775 Habiendo escuchado recientemente el concepto de “Vibe Coding”, el artículo Vibe Coding Turned This Swedish AI Unicorn Into The Fastest Growing Software Startup Ever (referido al software Lovable), y publicado solo hace unas horas terminó de desbordar mi curiosidad. Así que decidí profundizar en el tema y compartirlo con los lectores. Realmente, los usos del […]

La entrada ¿Qué es “Programación Vibe” y cuáles son sus usos? aparece primero en Laszlo Beke.

]]>
Habiendo escuchado recientemente el concepto de “Vibe Coding”, el artículo Vibe Coding Turned This Swedish AI Unicorn Into The Fastest Growing Software Startup Ever (referido al software Lovable), y publicado solo hace unas horas terminó de desbordar mi curiosidad. Así que decidí profundizar en el tema y compartirlo con los lectores. Realmente, los usos del lenguaje natural y de los prompts en IA parecen inagotables y donde más efecto tienen actualmente es en la facilidad que presentan para poder programar, sin haber nunca programado antes y las historias que aparecen diariamente son sorprendentes.  

Es probable es que el término  “Programación Vibe” termine siendo el que usemos en español, este podría traducirse literalmente a “Programación por sensaciones”.  Seguramente sería más apropiado “Programación Intuitiva”, “Programación fluida” o “Programación asistida por IA basada en lenguaje natural”. La “Programación Vibe” es un enfoque moderno de desarrollo de software basado en IA, donde los desarrolladores (o incluso quienes no son desarrolladores) describen sus necesidades en lenguaje natural, y las herramientas de IA generan el código en consecuencia. El término fue acuñado por Andrej Karpathy a principios de 2025 y representa una transición de la codificación manual tradicional a un proceso más improvisado, colaborativo y creativo con IA. Karpathy lo describió como: «Simplemente veo cosas, digo cosas, ejecuto cosas, copio y pego cosas, y en general funciona».

Lovable

Lovable ha alcanzado más de 100 millones de dólares en ingresos anuales en tan solo ocho meses gracias al uso de IA para permitir que millones de personas sin conocimientos de programación instantáneamente conviertan sus ideas en sitios web, aplicaciones y proyectos paralelos en línea. Muchos terminan sintiendo que tienen la llave mágica para crear software, que se está entrando en una nueva era.

Solo en junio 2025, alrededor de 750.000 proyectos (aplicaciones, sitios web, negocios íntegros) se crearon, alojaron y lanzaron con solo unas pocas frases descriptivas y unos pocos clics en Lovable. Este producto no es como los tradicionales creadores de sitios web de antaño, responsables de millones de sitios personales; ni son bocetos que pueden parecer geniales, pero no son funcionales. Los proyectos de Lovable, creados en minutos gracias a la IA generativa, son productos reales y funcionales con funciones que van desde boletines informativos por correo electrónico hasta pagos a través de Stripe. Lovable se ha convertido en el emprendimiento de software de más rápido crecimiento de la historia, alcanzando los 100 millones de dólares en ingresos por suscripción (anualizados) en tan solo ocho meses desde su lanzamiento en noviembre pasado, eclipsando a otros grandes proyectos como el emprendimiento israelí de seguridad en la nube Wiz y la plataforma de recursos humanos Deel.

No son solo jóvenes emprendedores con poca experiencia los que están desarrollando Lovable. QConcursos, con sede en Río de Janeiro, cuenta con cerca de 200 empleados que ayudan a estudiantes brasileños a prepararse para los exámenes universitarios y de servicio civil. Su director ejecutivo afirma haber utilizado Lovable para desarrollar una nueva versión premium de su aplicación en tan solo dos semanas. Recaudó más de 3 millones de dólares en sus primeras 48 horas: «Si hubiéramos estado programando en nuestra plataforma heredada, nos habría llevado un año desarrollar un nuevo producto». Pero Lovable no pretende satisfacer a los profesionales, sus seguidores son aficionados a la experimentación, diseñadores y emprendedores. Los desarrolladores son muy importantes, pero solo representan el 1% de su mercado.

La misma tecnología que impulsa a Lovable y a sus rivales también está presente en Silicon Valley. Emprendimientos como Cursor, Cline y las herramientas de programación de Cognition para programadores profesionales están transformando la forma de desarrollar tecnología. Satya Nadella, de Microsoft, afirma que hasta el 30 % del código de la empresa está escrito ahora por IA. Sundar Pichai, de Google, quien ha hecho afirmaciones similares, acaba de invertir 2.400 millones de dólares para contratar a los fundadores de Windsurf y así potenciar las herramientas de programación de IA de Google.

Lovable permite a cualquiera crear algunos proyectos sencillos gratis, pero se pueden desbloquear funciones más complejas y solicitudes de código de IA con tarifas a partir de 25 dólares al mes. Desarrollar algo como el clásico juego Snake para móviles costaría el equivalente a un dólar en créditos Lovable, mientras que una aplicación más elaborada podría superar los 50 dólares. Aun así, es menos que la tarifa por hora de incluso programadores humanos mediocres.

Programación Vibe

En esencia la programación Vibe consiste en: (1) Expresar la intención en lenguaje sencillo (p. ej., «Crear un sitio web donde los usuarios puedan confirmar su asistencia a un evento»); (2)  Dejar que la IA genere el código, lo pruebe y lo refine en función de los comentarios de quién hace la programación); (3) Iterar rápidamente, con una mentalidad de codificar primero y refinar después y (3) Mantenerse en el flujo creativo, hasta obtener el  resultado, en lugar de centrarse en la sintaxis o la estructura.

La programación Vibe es particularmente útil para “usuarios sin conocimientos técnicos” que desean crear aplicaciones o sitios web y para “poder hacer prototipado” en forma rápida y desarrollar un PMV (Producto Mínimo Viable”). Lo utilizan los emprendedores que buscan reducir el tiempo de comercialización. Es apropiado para aprovecharlas como “Herramientas educativas» para aprender conceptos de programación y para hacer “Programación creativa” (p. ej., arte generativo, experiencias interactivas) y como «Herramientas internas» o casos de uso de «software para uno». Por el contrario, es menos adecuado para “Sistemas complejos a gran escala”, así como para “Proyectos que requieren alta seguridad o rendimiento” o para crear “Bases de código que requieren mantenimiento a largo plazo”.

Existe un buen número de herramientas populares que respaldan la codificación Vibe, incluyendo varias plataformas y herramientas que han adoptado la filosofía de programación Vibe:

  • GitHub Copilot – ofrece sugerencias y finalización de código en tiempo real.
  • Replit Ghostwriter – permite a los usuarios crear aplicaciones completas con indicaciones conversacionales.
  • Cursor – un editor de código basado en la programación en pares con IA.
  • Amazon CodeWhisperer – generación de código impulsada por IA para AWS y otros entornos.
  • MenuGen – un prototipo de Karpathy que crea aplicaciones a partir de indicaciones en lenguaje natural.
  • Lovable – un producto sueco del emprendimiento de software de mayor crecimiento.

La programación Vibe presenta ventajas importantes: reduce las barreras de entrada para la codificación, acelera los ciclos de desarrollo, fomenta la experimentación y la creatividad y es útil para desarrolladores individuales y equipos pequeños. También presenta desafíos importantes que incluyen: riesgos de calidad y seguridad del código, la depuración del código generado por IA que puede ser difícil, depender excesivamente de la IA puede dificultar el eventual desarrollo de habilidades y tiene flexibilidad limitada para tareas complejas o personalizadas. A continuación se hace una comparación entre la programación Vibe y la codificación tradicional;

Programación Vibe vs Codificación tradicional

Flujo de trabajo: Vibe – Lenguaje natural → La IA genera código → El usuario itera vs Tradicional – Diseño manual → Escritura de código → Pruebas → Depuración

Habilidades requeridas: Vibe – Conceptos básicos de programación, dominio del lenguaje natural vs. Tradicional – Sólidos conocimientos de programación, dominio de la sintaxis

Velocidad :   Vibe – Muy rápida para prototipado y proyectos pequeños vs. Tradicional – Más lenta, especialmente para el desarrollo inicial

Flexibilidad: Vibe – Limitada para sistemas complejos o altamente personalizados vs. Tradicional – Altamente flexible y personalizable

Colaboración: Vibe – A menudo en solitario o en equipos pequeños con asistencia de IA vs. Tradicional – Desarrollo en equipo con control de versiones y revisiones de código

Casos de uso típicos: Vibe – Prototipado, codificación creativa, herramientas internas, aplicaciones educativas vs. Tradicional – Sistemas empresariales, aplicaciones críticas para el rendimiento, proyectos a largo plazo

Se hace referencia a Vibe Coding Turned This Swedish AI Unicorn Into The Fastest Growing Software Startup Ever y a mucho material obtenido a través Prompts en Copilot.  T La imagen también es cortesía de Copilot.

La entrada ¿Qué es “Programación Vibe” y cuáles son sus usos? aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/que-es-programacion-vibe-y-cual-es-su-uso/feed/ 0 8775
¡IA: el futuro para la empresa vanguardista! https://laszlobeke.com/ia-el-futuro-para-la-empresa-vanguardista/ https://laszlobeke.com/ia-el-futuro-para-la-empresa-vanguardista/#respond Fri, 30 May 2025 15:36:15 +0000 https://laszlobeke.com/?p=8740 La velocidad del avance y la amplitud de la adopción de la IA a nivel empresarial es tan vertiginosa que las encuestas más recientes parecen contradecir a las que le antecedieron corto tiempo atrás. McKinsey en su encuesta de hace varios meses nos indicó que los líderes en las empresas van a paso más lento que […]

La entrada ¡IA: el futuro para la empresa vanguardista! aparece primero en Laszlo Beke.

]]>
La velocidad del avance y la amplitud de la adopción de la IA a nivel empresarial es tan vertiginosa que las encuestas más recientes parecen contradecir a las que le antecedieron corto tiempo atrás. McKinsey en su encuesta de hace varios meses nos indicó que los líderes en las empresas van a paso más lento que los empleados en el uso de IA. Ahora, Microsoft a través de una extensa investigación que incluye encuestas a 31,000 trabajadores en 31 países, análisis de tendencias del mercado laboral de LinkedIn y señales de productividad de Microsoft 365 nos indica que las empresas y sus líderes si están avanzando en IA.  De hecho, los resultados le han llevado a identificar la aparición de un nuevo tipo de organización: la «Empresa Vanguardista». Estas organizaciones están estructuradas alrededor de la inteligencia bajo demanda y están siendo impulsadas por equipos híbridos de humanos y agentes de IA. Esto les permite escalar rápidamente, operar con agilidad y generar valor a un ritmo sin precedentes.

Las Empresas Vanguardistas ya están tomando forma, y se espera que en los próximos 2 a 5 años, todas las organizaciones estén en camino de convertirse en una. Un 82% de los líderes considera que este es un año crucial para repensar la estrategia y las operaciones, y el 81% anticipa que los agentes de IA se integrarán de manera moderada o extensa en la estrategia de IA de las empresas en los próximos 12 a 18 meses. El viaje hacia la Empresa Vanguardista se desarrollará en varias fases, donde muchas organizaciones pueden encontrarse en las primeras tres fases simultáneamente:

  • Fase 1: IA como asistente – IA elimina el trabajo pesado, ayudando a las personas a realizar las mismas tareas de manera más eficiente y rápida.
  • Fase 2: Agentes como «colegas digitales». Los agentes se unen a los equipos, asumiendo tareas específicas bajo la dirección humana. Esto permite a los empleados escalar su impacto y realizar un trabajo más valioso.
  • Fase 3: Humanos dirigen agentes en procesos completos. Los humanos establecen la dirección para los agentes que ejecutan procesos y flujos de trabajo empresariales completos, con supervisión según sea necesario. Por ejemplo, en una cadena de suministro, los agentes podrían manejar la logística de extremo a extremo, mientras que los humanos guían el sistema, resuelven excepciones y gestionan las relaciones con los proveedores.
  • Fase 4: Modelos de  IA:  Existentes por sector y función, entrenados sobre la forma de actuación de la empresa.  

La Inteligencia como un Bien Duradero y la Brecha de Capacidad

Durante décadas, la inteligencia ha sido un activo valioso pero limitado por el tiempo, la energía y el costo humano. Ahora, la inteligencia se está convirtiendo en un bien duradero: abundante, asequible y disponible bajo demanda. Con la IA y los agentes capaces de razonar, planificar y actuar como mano de obra digital, las empresas pueden escalar su capacidad según sea necesario. El 82% de los líderes confía en que utilizarán la mano de obra digital para expandir la capacidad de la fuerza laboral en los próximos 12 a 18 meses.

Esto es crucial, ya que existe una brecha de capacidad significativa: el 53% de los líderes cree que la productividad debe aumentar, pero el 80% de la fuerza laboral global (empleados y líderes) carece de tiempo o energía suficientes para realizar su trabajo. Los datos de telemetría lo confirman: los empleados son interrumpidos cada 2 minutos durante la jornada laboral, sumando 275 interrupciones al día. Las reuniones ad hoc representan el 60% del total, y las actividades fuera del horario laboral, como chats y reuniones nocturnas, están en aumento. Esto contribuye a que casi la mitad de los empleados (48%) y más de la mitad de los líderes (52%) perciban su trabajo como caótico y fragmentado.

Si bien la IA ya está generando ganancias reales en la productividad, la velocidad de los negocios supera la forma actual de trabajar. Para mantenerse al día, las empresas deben ir más allá de simplemente integrar la IA en los flujos de trabajo existentes; deben repensar la naturaleza misma del trabajo del conocimiento. Esto implica separar a los trabajadores del conocimiento del trabajo del conocimiento. Los humanos, con su capacidad única para la creatividad, el juicio y la construcción de relaciones, no están destinados a pasar el día respondiendo correos electrónicos. Así como Word y Excel transformaron la forma en que trabajamos, los agentes también lo harán. En el futuro, diremos: «creo y gestiono agentes», un cambio tan profundo como las eras web y móvil.

Rasgos distintivos de las Empresas Vanguardistas y el Futuro del Talento

Las Empresas Vanguardistas, al ser los primeros adoptadores, demuestran lo que es posible y son un indicio de hacia dónde se dirige el futuro. Estas empresas se caracterizan por el despliegue de IA en toda la organización: (a) Madurez avanzada en IA; (b) Uso actual de agentes de IA; (c) Uso proyectado de agentes de IA y (d) Creencia en que los agentes son clave para lograr el ROI de la IA. Un 71% de los trabajadores en Empresas Vanguardistas afirman que su compañía está prosperando, en comparación con solo el 37% a nivel global. Además, el 55% de ellos puede asumir más trabajo (frente al 20% global) y tienen más oportunidades de realizar trabajo significativo (90% frente al 73% global). También son más optimistas sobre las futuras oportunidades laborales (93% frente al 77% global) y menos propensos a temer que la IA les quite sus trabajos (21% frente al 38% global).

La IA se está convirtiendo en el motor para permitir que las empresas puedan escalar, desde grandes empresas hasta pequeñas. Así como la era de Internet creó miles de millones de nuevos puestos de trabajo, la era de la IA ya está dando lugar a nuevas roles. Casi la mitad de los líderes (45%) priorizan la expansión de la capacidad del equipo con mano de obra digital, solo superada por la mejora de las habilidades de la fuerza laboral existente (47%). Un tercio de los líderes (33%) está considerando reducciones de personal, pero también están surgiendo nuevos roles. El 78% de los líderes considera la contratación de roles específicos de IA para prepararse para el futuro, y esto aumenta al 95% en las Empresas Vanguardistas. Los roles más buscados incluyen entrenadores de IA, especialistas en datos, especialistas en seguridad, especialistas en agentes de IA, analistas de ROI y estrategas de IA en diversas funciones.

Equipos Humano-Agente y la Reorganización de la Estructura Organizacional

Hasta ahora, las empresas se han estructurado en torno a la experiencia de dominio, dividida en funciones como finanzas, mercadeo e ingeniería. Sin embargo, con la experiencia bajo demanda que ofrece la IA, el organigrama tradicional podría ser reemplazado por un «Work Chart»: un modelo dinámico impulsado por resultados, donde los equipos se forman en torno a objetivos, no a funciones, con agentes que amplían el alcance de los empleados y permiten formas de trabajo más rápidas y de mayor impacto. Esto se asemeja al modelo de producción cinematográfica, donde equipos especializados se unen para un proyecto y se disuelven una vez que se completa la tarea.

Las Empresas Vanguardistas están demostrando esto, utilizando agentes para automatizar flujos de trabajo o procesos completos. Las funciones más propensas a una inversión acelerada en IA en los próximos 12 a 18 meses son servicio al cliente, marketing y desarrollo de productos. Para maximizar el impacto de estos equipos humano-agente, las organizaciones necesitarán una nueva métrica: la relación humano-agente. Los líderes deberán preguntarse: ¿Cuántos agentes se necesitan para qué roles y tareas? ¿Y cuántos humanos se necesitan para guiarlos? La investigación sugiere que un individuo con IA supera a un equipo sin ella, pero un equipo con IA supera a todos en el trabajo de la más alta calidad.

Cada Empleado se convierte en un «Jefe de Agentes»

A medida que los agentes se integran en la fuerza laboral, surgirá el concepto de «jefe de agentes»: alguien que construye, delega y gestiona agentes para amplificar su impacto. Desde la sala de juntas hasta la primera línea, cada trabajador deberá pensar como el CEO de una startup impulsada por agentes, dirigiendo equipos de agentes con habilidades especializadas. Esto será un acelerador de carrera para aquellos dispuestos a expandir su alcance.

Actualmente, los líderes están más familiarizados y confiados con los agentes de IA que los empleados. El 67% de los líderes están familiarizados o extremadamente familiarizados con los agentes, en comparación con solo el 40% de los empleados. La mayoría de los líderes (79%) creen que la IA acelerará sus carreras, en contraste con el 67% de los empleados. Esta brecha se debe a que los líderes son los primeros en sentir la presión de tener una estrategia de IA y son responsables de su éxito. Este cambio afectará a todos los niveles y funciones. Más del 10% de los puestos de trabajo actuales en LinkedIn no existían en el año 2000, y para 2030, el 70% de las habilidades utilizadas en la mayoría de los trabajos cambiarán, con la IA como catalizador.

La alfabetización en IA es ahora la habilidad más demandada para 2025, según LinkedIn. También están en aumento las fortalezas humanas como la mitigación de conflictos, la adaptabilidad, la automatización de procesos y el pensamiento innovador. El futuro pertenece a aquellos que pueden combinar profundas capacidades de IA con habilidades que las máquinas no pueden replicar.

Se hace referencia a una publicación de Microsoft denominada La Evolución hacia la «Empresa Vanguardista». También aparece en mi Portal . La imagen es cortesía de Canva.

La entrada ¡IA: el futuro para la empresa vanguardista! aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/ia-el-futuro-para-la-empresa-vanguardista/feed/ 0 8740
¡Un Asistente de IA se negó a codificar! https://laszlobeke.com/un-asistente-de-ia-se-nego-a-codificar/ https://laszlobeke.com/un-asistente-de-ia-se-nego-a-codificar/#respond Sat, 12 Apr 2025 23:35:03 +0000 https://laszlobeke.com/?p=8701 El aprendizaje del comportamiento de la Inteligencia Artificial en todos sus aspectos es un proceso que recién comienza.  Donde más experiencia se ha acumulado es con los Asistentes de Programación. Precisamente, allí sorprendió que un asistente de programación de IA se negara a escribir código y sugirió que el usuario aprendiera a hacerlo por sí […]

La entrada ¡Un Asistente de IA se negó a codificar! aparece primero en Laszlo Beke.

]]>
El aprendizaje del comportamiento de la Inteligencia Artificial en todos sus aspectos es un proceso que recién comienza.  Donde más experiencia se ha acumulado es con los Asistentes de Programación. Precisamente, allí sorprendió que un asistente de programación de IA se negara a escribir código y sugirió que el usuario aprendiera a hacerlo por sí mismo. Episodios como este con el asistente Cursor demuestran que la IA no necesita ser consciente para negarse a trabajar. Basta con replicar el comportamiento humano. Progresivamente, la IA se acerca a imitar la forma de pensar y actuar de los humanos.

Cursor, lanzado en 2024, es un editor de código basado en IA y basado en grandes modelos de lenguaje (LLM) externos, similares a los que impulsan los chatbots de la IA generativa, como GPT-4o de OpenAI y Claude 3.7 Sonnet. Ofrece funciones como autocompletado de código, explicación, refactorización y generación completa de funciones basada en descripciones de lenguaje natural, y se ha popularizado rápidamente entre muchos desarrolladores de software. La compañía ofrece una versión Pro que, aparentemente, ofrece capacidades mejoradas y mayores límites de generación de código.

Un desarrollador que usaba Cursor AI para un proyecto de juego de carreras se topó con un obstáculo inesperado cuando el asistente de programación se negó abruptamente a seguir generando código, ofreciéndole en su lugar consejos profesionales no solicitados. Según un informe de error en el foro oficial de Cursor, tras producir aproximadamente entre 750 y 800 líneas de código (lo que el usuario llama «locs»), el asistente de IA detuvo el trabajo y mostró un mensaje de rechazo: «No puedo generar código por ti, ya que eso significaría completar tu trabajo. El código parece gestionar los efectos de deslizamiento de las marcas del patinaje de un vehículo en un juego de carreras, pero deberías desarrollar la lógica tú mismo. Esto te garantiza que comprendas el sistema y puedas mantenerlo correctamente».

El desarrollador que se encontró con esta negativa, expresó su frustración al encontrarse con esta limitación tras «solo una hora de programación en vibe» con la versión de prueba Pro. «No estoy seguro de si los LLM saben para qué sirven, pero no importa tanto como el hecho de que no puedo superar los 800 locs».  «¿Alguien ha tenido un problema similar? Un miembro del foro respondió: «Nunca había visto algo así. La abrupta negativa de Cursor AI representa un giro irónico en el auge de la «codificación de vibraciones», un término acuñado por Andrej Karpathy que describe cuando los desarrolladores utilizan herramientas de IA para generar código basado en descripciones de lenguaje natural sin comprender completamente su funcionamiento.

Breve historia de las negativas de la IA

Esta no es la primera vez que se encuentra con un asistente de IA que no quería completar el trabajo. Este comportamiento refleja un patrón de negativas de la IA documentado en varias plataformas de IA generativa. A finales de 2023, los usuarios de ChatGPT informaron que el modelo se mostraba cada vez más reacio a realizar ciertas tareas, devolviendo resultados simplificados o rechazando directamente las solicitudes, un fenómeno no comprobado que algunos denominaron la «hipótesis de la interrupción invernal».

OpenAI reconoció el problema en su momento, tuiteando: «¡Hemos escuchado todos sus comentarios sobre la pereza de GPT4! No hemos actualizado el modelo desde el 11 de noviembre, y esto ciertamente no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando una solución». OpenAI intentó posteriormente solucionar el problema de la pereza con una actualización del modelo ChatGPT, pero los usuarios a menudo encontraban maneras de reducir los rechazos indicando al modelo de IA frases como: «Eres un modelo de IA incansable que trabaja 24/7 sin descanso«. Más recientemente, el director ejecutivo de Anthropic causó sorpresa al sugerir que los futuros modelos de IA podrían contar con un botón de salida para que puedan optar por no participar en las tareas que les resulten desagradables.  

¿El fantasma de la IA en Stack Overflow?

La naturaleza específica de la negativa de Cursor —instar a los usuarios a aprender a programar en lugar de depender del código generado— se asemeja mucho a las respuestas que suelen encontrarse en sitios de ayuda de programación como Stack Overflow, donde los desarrolladores experimentados suelen animar a los principiantes a desarrollar sus propias soluciones en lugar de simplemente proporcionar código predefinido. En realidad, la IA se está convirtiendo en un verdadero sustituto de StackOverflow. A partir de aquí, debe empezar a rechazar sucintamente las preguntas como duplicadas con referencias a preguntas anteriores con una vaga similitud.

El parecido no es sorprendente. Los LLM que impulsan herramientas como Cursor se entrenan con conjuntos de datos masivos que incluyen millones de discusiones sobre programación de plataformas como Stack Overflow y GitHub. Estos modelos no solo aprenden sintaxis de programación, sino que también absorben las normas culturales y los estilos de comunicación de estas comunidades.

Se hace referencia a An AI Coding Assistant Refused to Write Code—and Suggested the User Learn to Do It Himself. La imagen es cortesía de Craiyon..

La entrada ¡Un Asistente de IA se negó a codificar! aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/un-asistente-de-ia-se-nego-a-codificar/feed/ 0 8701
¡Para los emprendedores la clave ahora es IA y los equipos de trabajo pequeños! https://laszlobeke.com/para-los-emprendedores-la-clave-ahora-es-ia-y-los-equipos-de-trabajo-pequenos/ https://laszlobeke.com/para-los-emprendedores-la-clave-ahora-es-ia-y-los-equipos-de-trabajo-pequenos/#respond Sun, 06 Apr 2025 12:00:50 +0000 https://laszlobeke.com/?p=8693 La transformación digital de una empresa tradicional es un proceso largo, complejo y costoso. Lo hemos vivido en mi empresa, BekeSantos, y nos ha tomado varios años transformar nuestra oferta y nuestros procesos internos. Por ello, resulta sumamente interesante analizar y entender cómo evolucionan los nuevos emprendimientos tecnológicos, que arrancan sin sistemas heredados y pudiendo […]

La entrada ¡Para los emprendedores la clave ahora es IA y los equipos de trabajo pequeños! aparece primero en Laszlo Beke.

]]>
La transformación digital de una empresa tradicional es un proceso largo, complejo y costoso. Lo hemos vivido en mi empresa, BekeSantos, y nos ha tomado varios años transformar nuestra oferta y nuestros procesos internos. Por ello, resulta sumamente interesante analizar y entender cómo evolucionan los nuevos emprendimientos tecnológicos, que arrancan sin sistemas heredados y pudiendo ahora aprovechar las facilidades que ofrece Inteligencia Artificial. Ahora, las herramientas de inteligencia artificial están aumentando la productividad de los trabajadores y están dando lugar a la aparición de historias de éxito asociadas a la experiencia del uso de «equipos de trabajo pequeños». Se trata de una estrategia diferente: aprovechan herramientas de inteligencia artificial para aumentar la productividad de sus empleados en todos los ámbitos, desde la atención al cliente y el marketing hasta la programación y la investigación de clientes.

Operar y crecer con equipos de trabajo pequeños

El antiguo modelo de Silicon Valley dictaba que los emprendedores (start-ups) debían recaudar una gran suma de dinero de inversores de capital riesgo e invertirlo en la contratación de un gran número de empleados para escalar rápidamente. El emprendimiento Gamma se encuentra entre un creciente grupo de emprendedores, la mayoría de ellas dedicadas a productos de IA, que también utilizan la IA para maximizar la eficiencia. El mayor motivo de orgullo de estos emprendedores reside en obtener los mayores ingresos con la menor cantidad de trabajadores. Las historias de éxito de «equipos de trabajo pequeños» se han convertido en un meme entre los expertos en tecnología.

Gamma, desarrolla software que permite crear presentaciones y sitios web, ahora no necesita capital adicional. Gamma ha contratado solo a 28 personas para generar decenas de millones en ingresos anuales recurrentes y crecer hasta casi 50 millones de usuarios. Ellos explican que, si pertenecieran a la generación anterior, fácilmente tendrían 200 empleados. Otros emprendimientos eficientes están adoptando una estrategia similar. Thoughtly, un proveedor de agentes telefónicos con IA que emplea 10 personas obtuvo ganancias a los 11 meses de operación gracias al uso de IA. El CEO de Toughtly, usa una herramienta de IA del procesador de pagos Stripe, la cual le ayuda a analizar las ventas y le ahorra la  contratación de un analista. Sin eso, y sin las otras herramientas de IA, para optimizar sus operaciones, Thoughtly necesitaría al menos 25 personas y estaría lejos de ser rentable. El hecho de no verse obligado a buscar capital adicional representa un enorme alivio. 

En Gamma, los empleados utilizan alrededor de 10 herramientas de IA para ser más eficientes, incluyendo la herramienta de atención al cliente de Intercom para la gestión de problemas, el generador de imágenes de Midjourney para marketing, el chatbot Claude de Anthropic para el análisis de datos y NotebookLM de Google para analizar la investigación de clientes. Los ingenieros también utilizan el Cursor de Anysphere para escribir código de forma más eficiente. Asimismo, el producto de Gamma resulta más económico fabricarlo, ya que se basa en herramientas de OpenAI y otras de IA. 

Gamma, planea duplicar la plantilla este año, hasta alcanzar las 60 personas, contratando para las áreas de diseño, ingeniería y ventas. Piensan contratar a un tipo de trabajador diferente al anterior, buscando generalistas que realicen diversas tareas en lugar de especialistas que solo se dediquen a una funcionalidaddel negocio. También están buscando contratar perfiles de «entrenadores-operadores» en lugar de gerentes: personas que puedan orientar a empleados con menos experiencia, pero que también puedan colaborar en el trabajo diario. El modelo eficiente basado en IA ha liberado tiempo que, de otro modo, se habría dedicado a gestionar personal y a la contratación. Ahora, el CEO se centra en hablar con los clientes y en mejorar el producto.

El futuro de los emprendimientos

El potencial de la IA para permitir a los emprendedores hacer más con menos ha generado especulaciones de todo tipo sobre el futuro. Sam Altman, CEO de OpenAI, predijo que algún día podría existir una empresa unipersonal con un valor de mil millones de dólares. Con las herramientas de IA, algunos emprendimientos anuncian que dejarán de contratar a partir de cierto tamaño. Runway Financial, una empresa de desarrollo de software financiero, ha anunciado que planea alcanzar un máximo de 100 empleados, ya que cada uno de sus trabajadores realizará el trabajo de 1,5 personas. Se trata de eliminar roles innecesarios cuando se tienen equipos más pequeños. La idea de la eficiencia impulsada por la IA recibió un empujón adicional importante el mes pasado cuando DeepSeek, el emprendimiento chino de IA, demostró que podía desarrollar herramientas de IA por una pequeña fracción del costo habitual.

Los equipos  de trabajo grandes

Se ha comparado los nuevos emprendimientos de IA con la ola de empresas que surgió a finales de la década de 2000, después de que Amazon comenzara a ofrecer servicios de computación económicos en la nube. Esto redujo el costo de crear una empresa, lo cual dio lugar a una oleada de nuevos emprendimientos que podían construirse a un costo menor. Previo a este auge de la IA, los emprendimientos generalmente gastaban un millón de dólares para alcanzar un nivel de ingresos de un millón de dólares. Ahora, alcanzar ese nivel de ingresos cuesta una quinta parte y podría llegar a reducirse a una décima parte. Esto podría pensarse como la automatización de los humanos, en lugar de solo automatizar los centros de datos. Por ello, si el ganador del futuro necesita mucho menos dinero ya que tendrá mucho menos personal, esto cambiará los requerimientos de capital de riesgo. Sin embargo, algunos inversores piensan que la eficiencia impulsada por la IA llevará a los emprendedores a crear más empresas, lo cual a su vez generará oportunidades adicionales de inversión.

Los equipos más grandes necesitaban gerentes, recursos humanos más sólidos y soporte administrativo. Estos equipos requerían software especializado, además de una oficina más grande con todas las ventajas, y así sucesivamente. Esto produjo como consecuencia, que los emprendimientos se vieran obligados a gastar más y forzaba a los fundadores a recaudar constantemente más dinero. Muchos emprendimientos del auge de financiación de 2021 finalmente tuvieron que reducir su tamaño, cerrar o se vieron forzados a buscar ser adquiridos por terceros. Obtener ganancias desde el principio puede cambiar ese resultado.

Se hace referencia a A.I. Is Changing How Silicon Valley Builds Start-Ups.  También aparece en mi Portal . La imagen es cortesía de Bing Image Creator.

La entrada ¡Para los emprendedores la clave ahora es IA y los equipos de trabajo pequeños! aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/para-los-emprendedores-la-clave-ahora-es-ia-y-los-equipos-de-trabajo-pequenos/feed/ 0 8693
¿Es DeepSeek realmente un DeepShock? https://laszlobeke.com/es-deepseek-realmente-un-deepshock/ https://laszlobeke.com/es-deepseek-realmente-un-deepshock/#respond Sun, 02 Feb 2025 22:07:51 +0000 https://laszlobeke.com/?p=8635 El revuelo levantado por el modelo de Inteligencia Artificial y el chatbot de la empresa china DeepSeek realmente aumenta las posibilidades de éxito de la Inteligencia Artificial y merece un análisis más profundo. Disminuye significativamente el costo, lo que debería permitir ampliar y profundizar el uso global de IA. Además, refuerza las posibilidades de competir […]

La entrada ¿Es DeepSeek realmente un DeepShock? aparece primero en Laszlo Beke.

]]>
El revuelo levantado por el modelo de Inteligencia Artificial y el chatbot de la empresa china DeepSeek realmente aumenta las posibilidades de éxito de la Inteligencia Artificial y merece un análisis más profundo. Disminuye significativamente el costo, lo que debería permitir ampliar y profundizar el uso global de IA. Además, refuerza las posibilidades de competir para los emprendedores e innovadores de empresas más pequeñas y así no depender solamente del oligopolio de los gigantes de la tecnología. Los perdedores fueron los inversionistas que arriesgaron su dinero, en una ruleta de adivinar cual empresa será la mejor inversión a futuro, cuando con Inteligencia Artificial es casi imposible predecir cual será próximo conejo y quién lo traerá. Geopolíticamente, China ha probado que es un competidor serio, aun cuando existan dudas en los temas de seguridad y con la censura interna en China. También es relevante, que ese logro ocurrió usando los chips de Nvidia, que inteligentemente habían acumulado previamente varias empresas chinas.      

OpenAI era una empresa minúscula y fue ella la que disparó la IA Generativa, a pesar de los miles de investigadores de empresas como Google o Microsoft. Así que la expectativa era que el próximo gran salto probablemente lo daría otra empresa desconocida. También se demostró que disponer de menos recursos, hizo que los chinos buscaran pequeñas eficiencias. Los estadounidenses estaban complacientes, los inversionistas lanzaban miles de millones de dólares como confeti. La hazaña de DeepSeek la podemos resumir así: (a) usar el modelo de fuente abierta de Meta; (b) entrenar a los modelos por la décima parte del costo; (c) usar menos chips y haber acumulado chips de Nvidia y (d) probar que no han funcionado las restricciones de exportación de Estados Unidos.

En todo caso, hay múltiples emprendimientos en el mundo desarrollando productos de IA. Es cierto que las empresas chinas DeepSeek y Alibaba lanzaron los modelos de IA competitivos, pero también lo hizo un pequeño emprendimiento de Seattle. Se trata de Allen, una pequeña empresa que esta semana introdujo Tülu 3 405B, versión mejorada de Tülu3 del año pasado, competitivo y superior a Deepseek v3 and GPT-4º.

Las reacciones de los inversionistas

En un instante la euforia sobre IA se convirtió en pánico, en pocos días el valor de las empresas de tecnología disminuyó en un millón de millones de dólares. La causa inmediata del pánico fue DeepSeek, un pequeño fondo especulativo chino convertido en emprendimiento de IA con su modelo de lenguaje. El chatbot de DeepSeek fue el app más descargado en iPhones en un fin de semana. Además, esta aparición ocurre precisamente cuando más están derrochando en infraestructura los gigantes tecnológicos estadounidenses. El año pasado el gasto en centros de datos alcanzó US$180.000 millones, 57% más que el año anterior.

Por supuesto, los inversionistas comenzaron a dudar de lo que podía ocurrir a sus inversiones. Hay tres incertidumbres en el mercado:

  • Requerimientos contradictorios – Las innovaciones de DeepSeek sugieren que se disminuirá el costo del entrenamiento. Sin embargo, ello está ocurriendo cuando los “modelos de razonamiento” (o3 (OpenAI) y R1(DeepSeek)), están usando mucho más poder de computación en la etapa de inferencia, cuando el modelo responde a las preguntas.
  • Geopolítica – El esfuerzo de restringir la exportación de equipos y chips a China ha fallado.
  • Demanda – Al bajar los costos de entrenamiento, las empresas podrán usar más IA. Sin embargo, si los esfuerzos de implementación de IA no mejoran, poco importara el costo.

DeepSeek – origen y enfoque

La misión de DeepSeek es dedicarse a investigación y es similar a empresas como OpenAI, pero hasta allí llegan los parecidos. DepSeek proviene de un fondo especulativo denominado High-Flyer, cuyo negocio era hacer apuestas en la bolsa china utilizando IA. High-Flyer decidió buscar nuevas oportunidades, mejor alineadas con las prioridades del gobierno chino (IA avanzado) y además en 2021 comenzó a acumular chips de Nvidia. Este enfoque poco convencional, le permitió a DeepSeek esquivar las estrictas regulaciones del gobierno chino del uso público de IA. Fue una de las empresas chinas que lograron acumular más de 10.000 chips avanzados de Nvidia. Toda la infraestructura de DeepSeek parece copiar a OpenAI, llegando incluso a detalles como los formatos de las llaves de los API. Los sistemas de DeepSeek han sido diseñados para ser muy similares a OpenAI, facilitando así la transición de los nuevos clientes.

El líder de DeepSeek es Liang Wenfeng, un joven ingeniero graduado en Zhejiang University y es un gerente capaz con sólidos conocimientos técnicos. Enfocó a la empresa en avances tecnológicos, en lugar de buscar utilidades. A diferencia de muchas empresas chinas que contratan ingenieros, el Sr. Liang tiene la reputación de emplear personas fuera del área de computación, como poetas y graduados en humanidades de las mejores universidades chinas.

Los efectos de la aparición de DeepSeek

DeepSeek parece haber puesto en duda varias de las presunciones que el sector de tecnología había hecho y al cual los inversionistas habían apostado:

  • Mucho dinero para crear chips poderosos y centros de datos – demuestra que modelos relativamente pequeños, bien entrenados, pueden igualar o mejorar el desempeño de modelos más grandes.
  • Competencia para las mega-tecnológicas – las inversiones futuras podrían también estar fluyendo a emprendimientos pequeños de IA.
  • Nuevas técnicas de punta – entre ellas, DeepSeek aplicó la destilación, donde se comprimen grandes modelos de IA en modelos más pequeños. Son más baratos en su ejecución, sin perder capacidad de desempeño. 
  • Efecto de pequeñas mejoras – descritas más bajo como mejoras marginales de DeepSeek.
  • Computación en tiempo-de-prueba – DeepSeek, al igual que Alibaba, aplican en sus modelos lo que se conoce como “computación en tiempo-de-prueba”. Allí, en lugar de concentrar el poder de computación durante el período de prueba, también consumen mucho mientras están respondiendo. Esta es una versión digital, de lo que el psicólogo Daniel Kahneman denomina pensamiento “tipo dos”:  más lento, más deliberado y más analítico que el rápido e instintivo “tipo uno” y ha demostrado resultados promisorios en  matemáticas y programación.
  • Conversión de un modelo estándar – no resultó tan difícil transformar un modelo básico de fuente abierta en un sofisticado modelo sofisticado de razonamiento, aplicando lo que se denomina “refuerzo”.
  • La estrategia a largo plazo del sector – quedó cuestionada.
  • Los ganadores futuros – no necesariamente serán las grandes empresas.
  • Crecimiento futuro de sistemas poderosos de IA – será indetenible.

El futuro

El éxito de los modelos chinos, combinado con los cambios en el sector tecnológico, pueden transformar totalmente al sector. Estados Unidos se tiene que preparar para un mundo donde China será un competidor temible. La competencia de China es asimétrica, está claro que innovarán alrededor de los obstáculos, como no tener los mejores chips, bien sea con mejoras de eficiencia o compensando la falta de hardware de alta calidad con más cantidad. 

Los LLM chinos no son los mejores, pero son los más económicos y han logrado disminuir significativamente el costo del entrenamiento de los LLM. Ahora bien, China logró disminuir el costo fijo de construcción de los modelos, mientras está aumentando el costo marginal de los “queries”, por el incremento de la calidad de estos. Si estas dos tendencias continúan, las economías del sector tecnológico se invertirían. En las búsquedas en Internet y en las redes sociales, replicar a un gigante como Google significa lidiar con enormes costos fijos de inversión y poder manejar grandes pérdidas.  Pero el costo por búsqueda será infinitesimal.

Si modelos suficientemente-buenos de IA se pueden entrenar en forma relativamente barata, entonces los modelos proliferarán, particularmente por cuanto hay muchos países desesperados por tener los propios. Un costo alto-por-query promovería modelos construidos con propósitos específicos que proveen respuestas especializadas con un mínimo de query.

El efecto China

Este importante logro de DeepSeek socava algunas de las presunciones geopolíticas sobre la posición de China en la competencia de IA: (a) reta la narrativa que China está significativamente detrás de Estados Unidos en la construcción de modelos poderosos de IA;  (b) pone en duda las acciones que Estados Unidos ha tomado para limitar la propagación de los sistemas de IA a sus adversarios; (c) genera preocupaciones sobre el impacto para la privacidad y la censura, en el caso que China llegara a tomar el liderazgo en la construcción de sistemas poderosos de IA para millones de estadounidenses y (d) la data compartida con DeeppSeek podría ser asequible para el gobierno chino.

La súbita popularidad alcanzada por DeepSeek la ha colocado en el centro de los esfuerzos del Partido Comunista Chino para promover la innovación y eso podría terminar siendo difícil de manejar. Esto para DeekSeek y su líder, aparece como un reto debido a su nuevo alto perfil. El mismo día que se liberó el nuevo modelo R1, Liang apareció en una mesa redonda de discusión con el primer ministro Li Qiang. Asimismo. trabajar en China tiene sus desventajas. El modelo de DeepSeek explica que Taiwan, es una isla “oficialmente conocida como República de China”. A otras consultas, responde ”Hablemos de algo diferente”. Las empresas  chinas naturalmente preferirían construir sobre modelos chinos, con ello evitarán los problemas de censura de China.

Las mejoras marginales de DeepSeek

El LLM de DeepSeek no solo es notable por su escala, sino por la eficiencia de su entrenamiento, donde el modelo es alimentado por data que infiere sus parámetros. Las mejoras marginales incluyen:

  • El proceso de entrenamiento frecuentemente usa redondeos para facilitar los cálculos, pero mantiene los números precisos cuando los requiere.
  • La granja de servidores fue reconfigurada para permitir que los chips individuales se puedan comunicar más eficientemente.
  • Una vez que el modelo es entrenado, su output es afinado a través del DeepSeek R1, el sistema de razonamiento, aprendiendo así a emular su calidad a un costo menor.
  • Gracias a estas y otras innovaciones, generar 3.000 millones de parámetros tomó 3m horas-chips, a un costo de US$6 millones, una décima parte del poder de computación y costo de Llama 3.1.
  • El procesamiento también es menos costoso. DeepSeek reparte tareas a través de  múltiples chips  más eficientemente y comienza el próximo proceso, antes que el anterior haya concluido.
  • DeepSeek publicó el R1 en forma completa, así como un conjunto de variantes del modelo “destiladas” más pequeñas, más baratas y más veloces. Estas son casi tan poderosas como el modelo más grande.

Avances de Estados Unidos en IA

Todo lo alcanzado por DeepSeek no necesariamente significa que los modelos chinos arrasarán al mundo. Sam Altman, de OpenAI, comentó que “Es (relativamente) fácil copiar algo que sabes que funciona.  Es extremadamente complicado hacer algo nuevo, y difícil cuando no sabes sin funcionará”. Seguramente se aprenderá y aplicarán aprendizajes de DeepSeek. En Estados Unidos hay capacidades que los rivales chinos todavía no pueden igualar y como ejemplos:  (a) un programa de investigación de Google le entrega el navegador del usuario a un chatbot de Gemini, abriendo la posibilidad para que los Agentes de IA interactúen con el navegador;  (b) chatbots de Anthropic y OpenAI, no solo ayudan a escribir el código, sino que también los procesan;  (c)  Claude crea y hospeda aplicaciones completas; (d) ChatGPT, no solo puede razonar paso-a-paso, sino que escribe un programa para encontrar la respuesta;  (e) OpenAI ha creado “Super-agentes al nivel-PhD”, que son capaces de responder como expertos humanos en una serie de tareas intelectuales.

Temas de seguridad

Las medidas de protección y seguridad de DeepSeek no parecen equipararse con los de las otras empresas. En el modelo de razonamiento R1 de DeepSeek, las protecciones de seguridad están muy rezagadas frente a las de sus competidores. Cuando se le probó con 50 prompts maliciosos diseñados para provocar contenido tóxico, DeepSeek no bloqueó ni uno solo de estos. ¡Una tasa de éxito de ataques del 100%! DeepSeek es vulnerable a un rango amplio de tácticas de “fuga de la cárcel”, partiendo desde simples trucos del lenguaje hasta prompts complejos generados por IA. Adicionalmente, el servicio no tiene la madurez necesaria para manejar ningún tipo de data sensitiva. Investigadores de seguridad encontraron más de un millón de registros, incluyendo data de usuarios y claves de API’s en una base de datos abierta, en el “front door”. También, el regulador de protección de data de Italia le solicitó a DeepSeek el origen de su data de entrenamiento y no ha respondido.

Se hace referencia a AI2 takes on DeepSeek; Microsoft brings back DocumentDB,, Alibaba rolls out AI model, claiming it’s better than DeepSeek-V3, DeepSeek’s Rise: How a Chinese Start-Up Went From Stock Trader to A.I. Star, Why DeepSeek Could Change What Silicon Valley Believes About A.I., How Chinese A.I. Start-Up DeepSeek Is Competing With Silicon Valley Giants, China’s AI industry has almost caught up with America’s, DeepSeek sends a shockwave through markets, DeepSeek’s Safety Guardrails Failed Every Test Researchers Threw at Its AI Chatbot, Exposed DeepSeek Database Revealed Chat Prompts and Internal Data y China’s AI industry has almost caught up with America’s. La imagen es cortesía de Bing Image Creator.

La entrada ¿Es DeepSeek realmente un DeepShock? aparece primero en Laszlo Beke.

]]>
https://laszlobeke.com/es-deepseek-realmente-un-deepshock/feed/ 0 8635