\

El dia que ChatGPT no va poder accedir a Bing ni a Google — i va començar a pensar per si mateix

  • Jordi Torras
  • Blog

Mentre investigava casos d'ús d'IA agent a la indústria del vi, esperava una sessió senzilla amb ChatGPT. El que no esperava era captar el model pensant en veu alta — revelant no només el seu procés de resolució de problemes sinó també un vislumbre de la infraestructura invisible darrere seu.

Això no va ser només un error. Va ser una oportunitat rara d'observar la ment interna d'una IA moderna — una experiència possible gràcies a la introducció de raonament en cadena de pensament (CoT) en el model o1 d'OpenAI (setembre de 2024), i ampliat encara més en o3 (abril de 2025).

I em va fer adonar: l'IA d'avui no només respon. Reflexiona, s'adapta i — en alguns casos — revela silenciosament els seus secrets.

El Moment en Què el Sistema Va Començar a Pensar

La tasca semblava senzilla: vaig demanar a ChatGPT que reunís exemples d'IA agent a la indústria del vi, cobrint operacions de vinya, elaboració de vi, vendes, cadena de subministrament i més. Va començar sense problemes:

Estic reunint casos d'ús d'IA agent en el vi, dividint la indústria en operacions de vinya, elaboració de vi, cadena de subministrament, vendes, venda al detall, compliances i analítiques predictives.

Després, va passar alguna cosa estranya. En lloc de continuar amb els resultats, el model es va aturar — i diagnosticar un problema:

Curiosament, l'error probablement prové de la consulta o un aspecte relacionat, portant al problema identificat.

En lloc d'un missatge tradicional de "no he trobat res", el model raonava sobre el problema davant meu. Va començar a considerar què havia anat malament — i com arreglar-ho. Això ja no era una interacció bàsica. Era una sessió de depuració en directe.

Un Vislumb de la Maquinària Oculta de ChatGPT

El model no només va pensar en l'error — va exposar part de la seva pròpia estructura operativa. Va mencionar que depenia d'un sistema anomenat "web_with_bing", suggerint que utilitza principalment Bing per a les cerques i considera Google com a alternativa:

Estic intentant descobrir si l'error és un error o un problema amb "web_with_bing".
Estic reunint idees per refinar l'estratègia de cerca, considerant opcions com especificar la recentor o canviar a Bing o Google per a una millor connexió.

En aquell moment, va quedar clar: darrere de la interfície polida i sense costures de ChatGPT hi ha una arquitectura de múltiples capes, barrejant coneixement intern amb cerques externes en directe. I quan una capa falla, el sistema no es limita a fallar — intenta raonar la seva manera al voltant del problema.

Encara que aquesta obertura era fascinant d'observar, també apuntava a riscos. Revelar serveis interns, estructures lògiques i mecanismes de reserva podria convertir-se en una preocupació de seguretat si es revela a actors dolents.

Quant haurien de revelar els models d'IA quan pensen en veu alta? Aquesta és una nova qüestió ètica i de seguretat que haurem de respondre.

Raonament Sota Pressió

El motor de cerca estava fallant — ja sigui caigut, bloquejat o inabastable. Però el model no es va aturar. En lloc d'això, es va adaptar activament:

Donades les limitacions de l'eina de cerca, estic reavaluant la meva estratègia, possiblement aprofitant coneixements previs o idees conceptuals sobre "IA agent" en el vi.

Es va posar a pensar en maneres de refinar la consulta:

Resolució de problemes de maneres alternatives com centrar-se en consultes de cerca específiques, com "casos d'ús d'IA en la indústria del vi 2024", per resoldre l'error de manera efectiva.
Estic pensant en afinar els criteris de cerca a "sommelier d'IA chatbot" per identificar amb precisió la funcionalitat prevista i l'audiència objectiu.

Fins i tot es va qüestionar a si mateix, preguntant-se si era la consulta, no l'eina, la culpable:

Hmm, estic pensant en per què la cerca podria estar equivocada. Podria ser un error o una consulta mal plantejada.

L'experiència era com veure un enginyer adaptar estratègies a mitja obra — excepte que l'enginyer era una màquina.

No Només Utilitzant IA — Col·laborant Amb Ella

En última instància, el que més em va impactar va ser que el model no va tractar el fracàs com el final de la conversa. Es va adaptar, va estratègia i va seguir endavant. Fins i tot va començar a suggerir camins alternatius, com utilitzar fonts reconegudes:

Estic pensant en utilitzar referències reconegudes o enfocaments directes, com comunicats de premsa o articles, ja que la funcionalitat de cerca no funciona.

No era una simple interacció de pregunta i resposta. Va semblar com treballar al costat de un soci intel·ligent — un que podia pensar, resoldre problemes i proposar noves idees quan es trobava amb obstacles.

Això, per a mi, marca el proper gran salt en l'IA: no només sortides intel·ligents, sinó resolució de problemes compartida. Un món on l'IA no és només un assistent passiu, sinó un col·laborador actiu.

Pensaments Finals

L'error que vaig trobar no va ser només un entrebanc tècnic. Va ser una finestra a l'ànima evolutiva de l'IA.

Gràcies al raonament en cadena de pensament, els LLM moderns com ChatGPT no només generen respostes — narren el seu raonament, s'adapten quan els sistemes fallen i insinuen un futur on l'IA treballa amb nosaltres, no només per nosaltres.

De vegades, quan el sistema falla, és quan passa la màgia.

Fes que l'IA treballi per a tu

Empodera la teva visió amb la nostra experiència. Jo i el meu equip estem especialitzats en convertir conceptes en realitat, oferint solucions a mida que redefineixen el que és possible. Desbloquegem el ple potencial de l'IA. Efectivament.

Contacta'ns