{"id":212,"date":"2026-02-05T20:32:43","date_gmt":"2026-02-05T19:32:43","guid":{"rendered":"https:\/\/helloblog.io\/it\/gpt-5-3-codex-codex-collaboratore-completo-sul-computer\/"},"modified":"2026-02-05T20:32:43","modified_gmt":"2026-02-05T19:32:43","slug":"gpt-5-3-codex-codex-collaboratore-completo-sul-computer","status":"publish","type":"post","link":"https:\/\/helloblog.io\/it\/gpt-5-3-codex-codex-collaboratore-completo-sul-computer\/","title":{"rendered":"GPT-5.3-Codex: Codex fa un salto da coding agent a collaboratore completo sul computer"},"content":{"rendered":"\n<p>OpenAI ha annunciato <strong>GPT\u20115.3\u2011Codex<\/strong> (5 febbraio 2026), un nuovo modello che spinge Codex lungo tutto lo spettro del lavoro professionale su un computer: non solo generazione e review del codice, ma anche ricerca, uso di strumenti, esecuzione di task lunghi e attivit\u00e0 \u201cend\u2011to\u2011end\u201d tipiche di un team di prodotto.<\/p>\n\n\n\n<p>Il posizionamento \u00e8 chiaro: <strong>\u00e8 il modello di coding agent pi\u00f9 capace finora<\/strong>, unisce i miglioramenti di performance di <strong>GPT\u20115.2\u2011Codex<\/strong> con le capacit\u00e0 di ragionamento e conoscenza professionale di <strong>GPT\u20115.2<\/strong>, in <strong>un unico modello<\/strong>. Inoltre, per gli utenti Codex, viene eseguito <strong>circa il 25% pi\u00f9 velocemente<\/strong>, rendendo pi\u00f9 pratiche interazioni ripetute e iterazioni su attivit\u00e0 che durano ore o giorni.<\/p>\n\n\n\n<p>C\u2019\u00e8 un dettaglio interessante per chi segue da vicino come questi sistemi vengono costruiti: <strong>GPT\u20115.3\u2011Codex \u00e8 il primo modello che \u00e8 stato \u201cstrumentale\u201d nel creare s\u00e9 stesso<\/strong>. Il team Codex ha usato versioni iniziali del modello per fare debugging del training, gestire la parte di deployment e diagnosticare risultati di test e valutazioni, accelerando lo sviluppo in modo inatteso.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Frontier agentic capabilities: perch\u00e9 \u00e8 un salto di categoria<\/h2>\n\n\n\n<p>OpenAI inquadra GPT\u20115.3\u2011Codex come un passo verso un <strong>agent general\u2011purpose<\/strong>: un sistema capace di ragionare, costruire ed eseguire su task reali. A supporto, riporta risultati su quattro benchmark che usa per misurare capacit\u00e0 di coding, agentic behavior e abilit\u00e0 \u201cnel mondo reale\u201d: <strong>SWE\u2011Bench Pro<\/strong>, <strong>Terminal\u2011Bench<\/strong>, <strong>OSWorld<\/strong> e <strong>GDPval<\/strong>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Coding: stato dell\u2019arte su SWE\u2011Bench Pro e Terminal\u2011Bench 2.0<\/h3>\n\n\n\n<p>Sul fronte puramente ingegneristico, GPT\u20115.3\u2011Codex raggiunge prestazioni <strong>state\u2011of\u2011the\u2011art<\/strong> su <strong>SWE\u2011Bench Pro<\/strong>, una valutazione focalizzata su task reali di software engineering. OpenAI sottolinea due aspetti di SWE\u2011Bench Pro rispetto a SWE\u2011bench Verified: (1) Verified testa solo Python, mentre <strong>Pro copre quattro linguaggi<\/strong>; (2) Pro \u00e8 progettato per essere <strong>pi\u00f9 resistente alla contaminazione<\/strong>, oltre che pi\u00f9 difficile, pi\u00f9 vario e pi\u00f9 aderente a esigenze industriali.<\/p>\n\n\n\n<p>In parallelo, il modello supera ampiamente la precedente migliore prestazione su <strong>Terminal\u2011Bench 2.0<\/strong>, che misura competenze operative in terminale (fondamentali per un agente come Codex: comandi, toolchain, gestione di ambienti, debug via CLI). Un punto non secondario: OpenAI nota che GPT\u20115.3\u2011Codex ottiene questi risultati <strong>usando meno token rispetto ai modelli precedenti<\/strong>, con l\u2019effetto pratico di lasciare pi\u00f9 margine agli utenti per \u201ccostruire di pi\u00f9\u201d dentro una sessione.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Web development: iterazioni autonome su giochi e app, per giorni<\/h3>\n\n\n\n<p>Per testare capacit\u00e0 agentiche di lungo periodo nel web development, OpenAI racconta un esperimento molto concreto: chiedere a GPT\u20115.3\u2011Codex di costruire <strong>due giochi da zero<\/strong> e iterarli autonomamente.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n\n<li>Una <strong>versione 2<\/strong> del racing game gi\u00e0 usato nel lancio della Codex app: include <strong>diversi piloti<\/strong>, <strong>otto mappe<\/strong> e perfino <strong>oggetti attivabili con la barra spaziatrice<\/strong>. Link per giocare: https:\/\/cdn.openai.com\/gpt-examples\/7fc9a6cb-887c-4db6-98ff-df3fd1612c78\/racing_v2.html<\/li>\n\n\n<li>Un <strong>diving game<\/strong> ambientato su vari reef: esplori, collezioni elementi per completare un \u201cfish codex\u201d, e nel frattempo gestisci <strong>ossigeno<\/strong>, <strong>pressione<\/strong> e <strong>hazard<\/strong>. Link per giocare: https:\/\/cdn.openai.com\/gpt-examples\/7fc9a6cb-887c-4db6-98ff-df3fd1612c78\/diving_game.html<\/li>\n\n<\/ul>\n\n\n\n<p>Il setup descritto \u00e8 interessante per chi costruisce agent: OpenAI parla di una skill di tipo \u201cdevelop web game\u201d e di prompt di follow\u2011up <strong>preselezionati e generici<\/strong> (esempi: \u201cfix the bug\u201d, \u201cimprove the game\u201d). Da l\u00ec, GPT\u20115.3\u2011Codex ha iterato <strong>autonomamente<\/strong> sui progetti per <strong>milioni di token<\/strong>, accumulando miglioramenti progressivi e mantenendo il contesto della direzione di prodotto.<\/p>\n\n\n\n<p>Sempre lato web, viene evidenziato un miglioramento \u201cquotidiano\u201d: quando chiedi a Codex di creare siti semplici o con prompt poco specifici, GPT\u20115.3\u2011Codex tende a partire da default pi\u00f9 sensati, con pi\u00f9 funzionalit\u00e0, offrendo un canvas iniziale pi\u00f9 vicino a qualcosa di \u201cproduction\u2011ready\u201d.<\/p>\n\n\n\n<p>Un esempio riportato riguarda la generazione di una landing page: rispetto a GPT\u20115.2\u2011Codex, GPT\u20115.3\u2011Codex avrebbe reso pi\u00f9 chiara la logica di pricing (piano annuale mostrato come prezzo mensile scontato) e avrebbe inserito un testimonial carousel con pi\u00f9 citazioni distinte, rendendo la pagina complessivamente pi\u00f9 completa gi\u00e0 al primo output.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Beyond coding: supporto all\u2019intero ciclo di vita del software (e non solo)<\/h3>\n\n\n\n<p>Il messaggio qui \u00e8 che un team tecnico non vive di solo codice: GPT\u20115.3\u2011Codex \u00e8 pensato per supportare <em>tutto<\/em> il lavoro nel ciclo di vita del software, includendo <strong>debugging, deployment, monitoring, scrittura di PRD<\/strong>, editing di copy, user research, test, metriche e altro.<\/p>\n\n\n\n<p>E va anche oltre il software in senso stretto: l\u2019agent pu\u00f2 aiutare a produrre deliverable come <strong>slide deck<\/strong> o fare analisi su <strong>fogli di calcolo<\/strong>.<\/p>\n\n\n\n<p>Per misurare il \u201cknowledge work\u201d, OpenAI richiama <strong>GDPval<\/strong> (pubblicato nel 2025), una valutazione su task ben specificati distribuiti su <strong>44 occupazioni<\/strong>. In GDPval, GPT\u20115.3\u2011Codex mostra performance forti e <strong>allinea GPT\u20115.2<\/strong> su questo asse, mentre mantiene il vantaggio sulle capacit\u00e0 pi\u00f9 agentiche e operative.<\/p>\n\n\n\n<p>Tra gli esempi di output prodotti dall\u2019agent vengono citati: slide di consulenza finanziaria, un documento di training retail, un foglio di calcolo per analisi NPV e una presentazione PDF in ambito fashion.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Esempio (GDPval): contesto del task riportato da OpenAI<\/h4>\n\n\n\n<p>Nel post viene incluso un prompt completo: l\u2019agent deve agire come consulente finanziario in una wealth management firm e preparare una <strong>presentazione PowerPoint da 10 slide<\/strong> per advisor interni, spiegando perch\u00e9 (in ottica fiduciaria) sconsigliare il passaggio da certificate of deposits a variable annuities proposto da banker locali. La consegna richiede confronti su caratteristiche, risk\/return e crescita, differenze di penali, suitability e risk tolerance con riferimento a NAIC Best Interest Regulations, e menzione di concern FINRA e regolazioni NAIC. Il prompt include anche due fonti web: https:\/\/content.naic.org\/sites\/default\/files\/government-affairs-brief-annuity-suitability-best-interest-model.pdf e https:\/\/www.finra.org\/investors\/insights\/high-yield-cds.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"2560\" height=\"1337\" src=\"https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-scaled.webp\" alt=\"Esempio di output di GPT-5.3-Codex: slide di consulenza finanziaria generate per un task GDPval\" class=\"wp-image-209\" srcset=\"https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-scaled.webp 2560w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-300x157.webp 300w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-1024x535.webp 1024w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-768x401.webp 768w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-1536x802.webp 1536w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-2048x1069.webp 2048w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Screenshot_2026-02-04_at_10.16.15C3A2__AM-400x209.webp 400w\" sizes=\"auto, (max-width: 2560px) 100vw, 2560px\" \/><figcaption class=\"wp-element-caption\"><em>Forr\u00e1s: OpenAI<\/em><\/figcaption><\/figure>\n\n\n\n<p>OpenAI sottolinea anche la natura della suite di benchmark: ogni task in GDPval \u00e8 disegnato da un professionista esperto e riflette lavoro reale della specifica occupazione.<\/p>\n\n\n\n<p>Sul fronte \u201ccomputer use\u201d, viene citato <strong>OSWorld<\/strong>, un benchmark agentico dove l\u2019agent completa task di produttivit\u00e0 in un ambiente desktop visuale (quindi con visione). GPT\u20115.3\u2011Codex mostrerebbe capacit\u00e0 di uso del computer molto pi\u00f9 forti dei precedenti GPT. Nel post si riporta anche un riferimento per OSWorld\u2011Verified: gli umani segnano circa <strong>~72%<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Un collaboratore interattivo: supervisionare e guidare l\u2019agent mentre lavora<\/h2>\n\n\n\n<p>Un punto spesso sottovalutato negli agent \u00e8 l\u2019interazione: quando gli agent diventano pi\u00f9 potenti, il collo di bottiglia si sposta su <strong>quanto \u00e8 facile per gli umani dirigerli e supervisionarli<\/strong>, magari in parallelo. OpenAI posiziona la <strong>Codex app<\/strong> come lo strumento per gestire e indirizzare agent in modo pi\u00f9 semplice, e con GPT\u20115.3\u2011Codex la collaborazione diventa pi\u00f9 \u201cin tempo reale\u201d.<\/p>\n\n\n\n<p>Con il nuovo modello, Codex fornisce <strong>aggiornamenti frequenti<\/strong> su decisioni chiave e progressi. Invece di aspettare l\u2019output finale, puoi intervenire mentre lavora: fare domande, discutere approcci, reindirizzare la soluzione. Il modello esplicita cosa sta facendo, risponde al feedback e mantiene l\u2019utente \u201cnel loop\u201d dall\u2019inizio alla fine.<\/p>\n\n\n\n<div class=\"wp-block-group callout callout-info is-style-info is-layout-flow wp-block-group-is-layout-flow\" style=\"border-width:1px;border-radius:8px;padding-top:1rem;padding-right:1.5rem;padding-bottom:1rem;padding-left:1.5rem\">\n\n<h4 class=\"wp-block-heading callout-title\">Dove si abilita lo steering nell\u2019app<\/h4>\n\n\n<p>Nella Codex app: <strong>Settings > General > Follow-up behavior<\/strong>. L\u2019obiettivo \u00e8 permettere di guidare l\u2019agent mentre sta eseguendo il task, senza perdere contesto.<\/p>\n\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Come OpenAI ha usato Codex per addestrare e distribuire GPT\u20115.3\u2011Codex<\/h2>\n\n\n\n<p>OpenAI racconta che i miglioramenti recenti di Codex derivano da progetti di ricerca portati avanti per mesi o anni, ma che proprio Codex sta accelerando questi cicli: diversi ricercatori e ingegneri descrivono il loro lavoro \u201coggi\u201d come radicalmente diverso rispetto a due mesi prima, grazie all\u2019apporto dell\u2019agent.<\/p>\n\n\n\n<p>Gi\u00e0 le versioni iniziali di GPT\u20115.3\u2011Codex erano sufficientemente forti da essere usate per <strong>migliorare il training<\/strong> e supportare il <strong>deployment<\/strong> di versioni successive. Nel post vengono dati esempi specifici (e utili per farsi un\u2019idea pratica di dove un agent fa davvero risparmiare tempo).<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n\n<li>Il team di ricerca ha usato Codex per <strong>monitorare e fare debug del training run<\/strong> per questa release.<\/li>\n\n\n<li>Non solo debug infrastrutturale: Codex ha aiutato a <strong>tracciare pattern durante il training<\/strong>, ha prodotto analisi profonde sulla qualit\u00e0 delle interazioni, ha proposto fix e ha costruito applicazioni ricche per permettere ai ricercatori di capire con precisione come il comportamento del modello differisse rispetto ai modelli precedenti.<\/li>\n\n\n<li>Il team engineering ha usato Codex per <strong>ottimizzare e adattare l\u2019harness<\/strong> (l\u2019infrastruttura\/impalcatura di test ed esecuzione) per GPT\u20115.3\u2011Codex.<\/li>\n\n\n<li>Quando sono emersi edge case anomali per utenti, Codex \u00e8 stato usato per identificare <strong>bug di context rendering<\/strong> e per risalire alla root cause di <strong>basse cache hit rates<\/strong>.<\/li>\n\n\n<li>Durante il lancio, GPT\u20115.3\u2011Codex continua ad aiutare a <strong>scalare dinamicamente cluster GPU<\/strong> in risposta a picchi di traffico e a mantenere la latenza stabile.<\/li>\n\n\n<li>In alpha testing, un ricercatore ha voluto stimare quanta \u201cproduttivit\u00e0 per turn\u201d aggiuntiva offrisse il modello: GPT\u20115.3\u2011Codex ha proposto <strong>semplici classifier regex<\/strong> per stimare frequenza di chiarimenti, risposte utente positive\/negative e avanzamento del task; poi li ha eseguiti in modo scalabile sui log di sessione e ha prodotto un report conclusivo.<\/li>\n\n\n<li>OpenAI riporta che, con l\u2019agent che capiva meglio l\u2019intento e avanzava di pi\u00f9 per turn, le persone che costruivano con Codex erano pi\u00f9 soddisfatte e servivano meno domande di chiarimento.<\/li>\n\n\n<li>Dato che GPT\u20115.3\u2011Codex \u00e8 molto diverso dai predecessori, dai test alpha sono usciti risultati insoliti e controintuitivi: un data scientist ha lavorato con Codex per costruire <strong>nuove pipeline dati<\/strong> e visualizzazioni pi\u00f9 ricche rispetto ai tool standard di dashboarding; i risultati sono stati co\u2011analizzati con Codex, che ha sintetizzato insight chiave su migliaia di data point in meno di tre minuti.<\/li>\n\n<\/ul>\n\n\n\n<p>Presi singolarmente, questi esempi mostrano l\u2019ampiezza d\u2019uso di un agente in un\u2019organizzazione che costruisce modelli; presi insieme, OpenAI li presenta come prova di una <strong>accelerazione tangibile<\/strong> per ricerca, ingegneria e product.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Sicurezza: \u201ccyber frontier\u201d e approccio precauzionale<\/h2>\n\n\n\n<p>Negli ultimi mesi, OpenAI dice di aver visto miglioramenti significativi nelle capacit\u00e0 su task di cybersecurity, con beneficio sia per developer sia per professionisti della sicurezza. In parallelo, l\u2019azienda dichiara di aver lavorato a misure di difesa pi\u00f9 robuste (rimandando a un post specifico su \u201cstrengthening cyber resilience\u201d).<\/p>\n\n\n\n<p>Un passaggio importante: <strong>GPT\u20115.3\u2011Codex \u00e8 il primo modello classificato come \u201cHigh capability\u201d per task di cybersecurity<\/strong> sotto il <strong>Preparedness Framework<\/strong> di OpenAI, ed \u00e8 anche il primo direttamente addestrato per <strong>identificare vulnerabilit\u00e0 software<\/strong>.<\/p>\n\n\n\n<p>OpenAI chiarisce che non ha evidenza definitiva che il modello possa automatizzare attacchi end\u2011to\u2011end, ma adotta comunque una postura prudente: deploy della <strong>cybersecurity safety stack pi\u00f9 completa finora<\/strong>, includendo:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n\n<li>safety training<\/li>\n\n\n<li>monitoraggio automatizzato<\/li>\n\n\n<li>trusted access per capacit\u00e0 avanzate<\/li>\n\n\n<li>pipeline di enforcement, inclusa threat intelligence<\/li>\n\n<\/ul>\n\n\n\n<p>Dato che la cybersecurity \u00e8 intrinsecamente dual\u2011use, l\u2019approccio dichiarato \u00e8 evidence\u2011based e iterativo: accelerare chi difende (trovare e correggere vulnerabilit\u00e0) e rallentare l\u2019abuso.<\/p>\n\n\n\n<p>In questo contesto, OpenAI lancia <strong>Trusted Access for Cyber<\/strong>, un programma pilota per accelerare la ricerca difensiva.<\/p>\n\n\n\n<p>Sul fronte ecosistema, vengono citate due iniziative:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n\n<li>Espansione della private beta di <strong>Aardvark<\/strong>, un security research agent, come prima offerta della suite di prodotti e tool <strong>Codex Security<\/strong>.<\/li>\n\n\n<li>Partnership con maintainer open source per offrire scanning gratuito di codebase molto usate, includendo <strong>Next.js<\/strong>. Nel post viene richiamato un caso in cui un security researcher ha usato Codex per trovare vulnerabilit\u00e0 poi divulgate (link Vercel): https:\/\/vercel.com\/changelog\/summaries-of-cve-2025-59471-and-cve-2025-59472<\/li>\n\n<\/ul>\n\n\n\n<p>Infine, OpenAI amplia l\u2019impegno economico: oltre al <strong>$1M Cybersecurity Grant Program<\/strong> lanciato nel 2023, dichiara <strong>$10M in API credits<\/strong> per accelerare la cyber defense con i modelli pi\u00f9 capaci, con un focus particolare su open source e infrastrutture critiche. Le organizzazioni coinvolte in ricerca di sicurezza in good faith possono fare richiesta tramite il <strong>Cybersecurity Grant Program<\/strong>: https:\/\/openai.com\/index\/openai-cybersecurity-grant-program\/.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Disponibilit\u00e0, performance e infrastruttura<\/h2>\n\n\n\n<p>Sul piano pratico: <strong>GPT\u20115.3\u2011Codex \u00e8 disponibile nei piani ChatGPT a pagamento<\/strong>, ovunque si possa usare Codex: <strong>app, CLI, estensione IDE e web<\/strong>. OpenAI aggiunge che sta lavorando per abilitare <strong>accesso via API<\/strong> in modo sicuro \u201ca breve\u201d (senza indicare una data precisa).<\/p>\n\n\n\n<p>OpenAI ribadisce anche il miglioramento di velocit\u00e0 per gli utenti Codex: con questa release, GPT\u20115.3\u2011Codex viene eseguito <strong>circa il 25% pi\u00f9 velocemente<\/strong>, grazie a miglioramenti di infrastruttura e inference stack, quindi con interazioni e risultati pi\u00f9 rapidi.<\/p>\n\n\n\n<p>Nota hardware: GPT\u20115.3\u2011Codex \u00e8 stato co\u2011progettato per, addestrato con e servito su sistemi <strong>NVIDIA GB200 NVL72<\/strong>, con ringraziamento esplicito a NVIDIA per la partnership.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Cosa cambia davvero per noi sviluppatori (e per i team di prodotto)<\/h2>\n\n\n\n<p>La lettura pi\u00f9 utile, al di l\u00e0 dei numeri, \u00e8 che Codex viene spinto oltre il paradigma \u201cscrive codice\u201d verso \u201cusa il codice come strumento per operare al computer\u201d: ricerca, implementazione, debug, test, deploy, monitoraggio e produzione di artefatti (documenti, report, slide, sheet) dentro un flusso unico e supervisionabile.<\/p>\n\n\n\n<p>OpenAI lo descrive come un passaggio da \u201cbest coding agent\u201d a <strong>collaboratore pi\u00f9 generale sul computer<\/strong>: si allarga sia la platea di chi pu\u00f2 costruire, sia il tipo di lavoro che pu\u00f2 essere portato a termine con Codex.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Appendice: numeri dichiarati nei benchmark<\/h2>\n\n\n\n<p>Nel post viene riportata una tabella riepilogativa (tutte le valutazioni indicate sono state eseguite su GPT\u20115.3\u2011Codex con <strong>xhigh reasoning effort<\/strong>). Ecco i valori comunicati:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n\n<li><strong>SWE\u2011Bench Pro (Public)<\/strong> &#8211; GPT\u20115.3\u2011Codex (xhigh): <strong>56.8%<\/strong> | GPT\u20115.2\u2011Codex (xhigh): <strong>56.4%<\/strong> | GPT\u20115.2 (xhigh): <strong>55.6%<\/strong><\/li>\n\n\n<li><strong>Terminal\u2011Bench 2.0<\/strong> &#8211; GPT\u20115.3\u2011Codex (xhigh): <strong>77.3%<\/strong> | GPT\u20115.2\u2011Codex (xhigh): <strong>64.0%<\/strong> | GPT\u20115.2 (xhigh): <strong>62.2%<\/strong><\/li>\n\n\n<li><strong>OSWorld\u2011Verified<\/strong> &#8211; GPT\u20115.3\u2011Codex (xhigh): <strong>64.7%<\/strong> | GPT\u20115.2\u2011Codex (xhigh): <strong>38.2%<\/strong> | GPT\u20115.2 (xhigh): <strong>37.9%<\/strong><\/li>\n\n\n<li><strong>GDPval (wins or ties)<\/strong> &#8211; GPT\u20115.3\u2011Codex (xhigh): <strong>70.9%<\/strong> | GPT\u20115.2\u2011Codex: <strong>&#8211;<\/strong> | GPT\u20115.2 (xhigh): <strong>70.9% (high)<\/strong><\/li>\n\n\n<li><strong>Cybersecurity Capture The Flag Challenges<\/strong> &#8211; GPT\u20115.3\u2011Codex (xhigh): <strong>77.6%<\/strong> | GPT\u20115.2\u2011Codex (xhigh): <strong>67.4%<\/strong> | GPT\u20115.2 (xhigh): <strong>67.7%<\/strong><\/li>\n\n\n<li><strong>SWE\u2011Lancer IC Diamond<\/strong> &#8211; GPT\u20115.3\u2011Codex (xhigh): <strong>81.4%<\/strong> | GPT\u20115.2\u2011Codex (xhigh): <strong>76.0%<\/strong> | GPT\u20115.2 (xhigh): <strong>74.6%<\/strong><\/li>\n\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Link utili citati nell\u2019annuncio<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n\n<li>Download Codex app (macOS .dmg): https:\/\/persistent.oaistatic.com\/codex-app-prod\/Codex.dmg<\/li>\n\n\n<li>Racing game v2 demo: https:\/\/cdn.openai.com\/gpt-examples\/7fc9a6cb-887c-4db6-98ff-df3fd1612c78\/racing_v2.html<\/li>\n\n\n<li>Diving game demo: https:\/\/cdn.openai.com\/gpt-examples\/7fc9a6cb-887c-4db6-98ff-df3fd1612c78\/diving_game.html<\/li>\n\n\n<li>GDPval: https:\/\/openai.com\/index\/gdpval\/<\/li>\n\n\n<li>Strengthening cyber resilience: https:\/\/openai.com\/index\/strengthening-cyber-resilience\/<\/li>\n\n\n<li>GPT-5.3-Codex System Card (high capability): https:\/\/openai.com\/index\/gpt-5-3-codex-system-card\/<\/li>\n\n\n<li>Preparedness Framework: https:\/\/openai.com\/index\/updating-our-preparedness-framework\/<\/li>\n\n\n<li>Trusted Access for Cyber: https:\/\/openai.com\/index\/trusted-access-for-cyber\/<\/li>\n\n\n<li>Aardvark: https:\/\/openai.com\/index\/introducing-aardvark\/<\/li>\n\n\n<li>Disclosure CVE Next.js (Vercel): https:\/\/vercel.com\/changelog\/summaries-of-cve-2025-59471-and-cve-2025-59472<\/li>\n\n\n<li>Cybersecurity Grant Program: https:\/\/openai.com\/index\/openai-cybersecurity-grant-program\/<\/li>\n\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"2400\" height=\"1260\" src=\"https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO.webp\" alt=\"Immagine di anteprima: Codex landing page\" class=\"wp-image-210\" srcset=\"https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO.webp 2400w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO-300x158.webp 300w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO-1024x538.webp 1024w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO-768x403.webp 768w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO-1536x806.webp 1536w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO-2048x1075.webp 2048w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/Codex_Landing_Page_SEO-400x210.webp 400w\" sizes=\"auto, (max-width: 2400px) 100vw, 2400px\" \/><figcaption class=\"wp-element-caption\"><em>Forr\u00e1s: OpenAI<\/em><\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"2160\" height=\"2160\" src=\"https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1.webp\" alt=\"Immagine di anteprima: art card GPT-5.2-Codex\" class=\"wp-image-211\" srcset=\"https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1.webp 2160w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-300x300.webp 300w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-1024x1024.webp 1024w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-150x150.webp 150w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-768x768.webp 768w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-1536x1536.webp 1536w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-2048x2048.webp 2048w, https:\/\/helloblog.io\/app\/uploads\/sites\/6\/2026\/02\/OAI_GPT-5.2-Codex_ArtCard_1x1-400x400.webp 400w\" sizes=\"auto, (max-width: 2160px) 100vw, 2160px\" \/><figcaption class=\"wp-element-caption\"><em>Forr\u00e1s: OpenAI<\/em><\/figcaption><\/figure>\n\n\n<div class=\"references-section\">\n                <h2>Riferimenti \/ Fonti<\/h2>\n                <ul class=\"references-list\"><li><a href=\"https:\/\/openai.com\/index\/introducing-gpt-5-3-codex\/\" target=\"_blank\" rel=\"noopener noreferrer\">Introducing GPT-5.3-Codex<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/introducing-the-codex-app\/\" target=\"_blank\" rel=\"noopener noreferrer\">Introducing the Codex app<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/gdpval\/\" target=\"_blank\" rel=\"noopener noreferrer\">GDPval<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/strengthening-cyber-resilience\/\" target=\"_blank\" rel=\"noopener noreferrer\">Strengthening cyber resilience<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/gpt-5-3-codex-system-card\/\" target=\"_blank\" rel=\"noopener noreferrer\">GPT-5.3-Codex System Card<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/updating-our-preparedness-framework\/\" target=\"_blank\" rel=\"noopener noreferrer\">Updating our Preparedness Framework<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/trusted-access-for-cyber\/\" target=\"_blank\" rel=\"noopener noreferrer\">Trusted Access for Cyber<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/introducing-aardvark\/\" target=\"_blank\" rel=\"noopener noreferrer\">Introducing Aardvark<\/a><\/li><li><a href=\"https:\/\/vercel.com\/changelog\/summaries-of-cve-2025-59471-and-cve-2025-59472\" target=\"_blank\" rel=\"noopener noreferrer\">Summaries of CVE-2025-59471 and CVE-2025-59472<\/a><\/li><li><a href=\"https:\/\/openai.com\/index\/openai-cybersecurity-grant-program\/\" target=\"_blank\" rel=\"noopener noreferrer\">OpenAI Cybersecurity Grant Program<\/a><\/li><\/ul>\n            <\/div>","protected":false},"excerpt":{"rendered":"<p>OpenAI presenta GPT\u20115.3\u2011Codex: un modello agentico pi\u00f9 veloce e pi\u00f9 capace, pensato per portare Codex oltre la scrittura di codice e coprire l\u2019intero lavoro professionale al computer.<\/p>\n","protected":false},"author":18,"featured_media":208,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[101],"tags":[104,102,106,103,105],"class_list":["post-212","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-ai-agents","tag-codex","tag-cybersecurity","tag-openai","tag-sviluppo-software"],"_links":{"self":[{"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/posts\/212","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/users\/18"}],"replies":[{"embeddable":true,"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/comments?post=212"}],"version-history":[{"count":0,"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/posts\/212\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/media\/208"}],"wp:attachment":[{"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/media?parent=212"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/categories?post=212"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/helloblog.io\/it\/wp-json\/wp\/v2\/tags?post=212"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}