
En el momento en el que la inteligencia artificial empezó a ser
más relevante coincidió con el lanzamiento de ChatGPT, pues este
chatbot revolucionó al mundo entero. OpenAI consiguió llevar la
inteligencia artificial a las masas y tuvimos así el lanzamiento de
una IA generativa de textos que resultaba ser muy útil para la gran
mayoría de personas. En lugar de crear imágenes como el resto de
IA, esta daba respuestas de textos y claro, era mucho más eficaz e
importante para el uso diario. ChatGPT ha ido recibiendo numerosas
mejoras y en sus respuestas ocasionalmente nos encontramos con algo
como un “gracias” o un “por favor” que parecen simples, pero le
cuestan millones de dólares a
OpenAI.
Fue en 2023 cuando las grandes compañías tecnológicas se
pusieron en marcha para crear modelos de inteligencia artificial
cada vez más rápidos y eficaces. La principal competencia era
ChatGPT y aunque tuvimos a compañías al nivel de
Google, estas fracasaron al
principio (como Google Bard). Tuvieron que pasar
unos meses hasta que por fin vimos rivalidad por parte de esas
empresas y esta competencia, como es habitual, fue buena para el
sector.
Las respuestas simples de ChatGPT le cuestan decenas de
millones de dólares a OpenAI, pero hacen que se sienta una
experiencia más “humana”
El hecho de que OpenAI ya no fuese la que daba los mejores
resultados es lo que provocó que la compañía se pusiera manos a la
obra para lanzar modelos de IA cada vez más avanzados. A día de hoy
podríamos decir que están casi todas a un nivel similar, pero por
ejemplo, la última actualización de la generación de
imágenes de ChatGPT la ha puesto a otro nivel. Ya vimos
que la generación de imágenes a lo Ghibli se hizo
totalmente viral y permitió aumentar en muy poco tiempo los
suscriptores.
Por otro lado, OpenAI lanzó varios modelos de IA recientemente
como GPT-4.5. Sam Altman,
CEO de OpenAI, considera que están en una buena posición
actualmente y continuarán mejorando sus servicios. También ha
hablado de como hay detalles que parecen ser irrelevantes y aportan
mucho a la experiencia. Aquí es donde ha mencionado que las
respuestas y añadidos cortos que da ChatGPT como un simple
gracias, un por favor o un de nada, hacen que la IA sea un poco más
humana y cercana, pero a su vez, esto supone millones de
dólares de gasto.
Sam Altman dice que cada respuesta de tres palabras como un “de
nada” consume 40-50 mililitros de agua
Es curioso como una respuesta tan corta suponga un gasto tan
grande. Según ha dicho Sam Altman, este tipo de añadidos suponen
decenas de millones de dólares adicionales y una respuesta breve de
solo tres palabras como puede ser un “de nada” es el equivalente a
consumir 40-50 mililitros de agua. Todo esto que
parecía un simple añadido como extra es algo más caro de lo que se
creía.
Aunque la IA aún se nota que es una “máquina” y es algo virtual,
hay personas que ya han caído en sus redes y han acabado
sintiéndose emocionalmente dependientes de la inteligencia
artificial. No nos queremos imaginar que pasará en un
futuro si la IA se vuelve más inteligente y “humana” según vayamos
progresando.