Di tendenza: Olio | Oro | BITCOIN | EUR/USD | GBP/USD

L'Euro prova a riprendersi puntando su Christine Lagarde

Economies.com
2025-11-24 06:00AM UTC

Lunedì l'euro è salito nelle contrattazioni europee rispetto a un paniere di valute principali, nel tentativo di riprendersi dal minimo di due settimane nei confronti del dollaro statunitense, sostenuto dalla caccia all'affare a livelli più bassi e da una pausa nel recente rialzo del dollaro in vista dei dati chiave sull'inflazione negli Stati Uniti.

Poiché regna ancora l'incertezza sulla probabilità di un taglio dei tassi da parte della Banca Centrale Europea a dicembre, gli investitori attendono più tardi oggi un discorso molto atteso della Presidente della BCE Christine Lagarde, che dovrebbe offrire nuovi indizi sul percorso della politica monetaria dell'eurozona.

Panoramica dei prezzi

• L'EUR/USD è salito dello 0,15% a 1,1528$, rispetto al livello di apertura di 1,1511$, dopo aver toccato un minimo di sessione di 1,1502$.

• L'euro ha chiuso la seduta di venerdì in ribasso dello 0,15% rispetto al dollaro, segnando la sesta perdita giornaliera consecutiva e toccando il minimo delle due settimane a 1,1491$, sotto pressione a causa dei deboli dati industriali e dei servizi in tutta Europa.

• Nel corso della settimana, l'euro è sceso dello 0,95%, il calo settimanale più grande dalla fine di luglio, poiché gli investitori si sono concentrati sull'acquisto del dollaro statunitense, in quanto asset più interessante nell'attuale contesto.

Dollaro statunitense

Lunedì l'indice del dollaro è sceso dello 0,1%, ritirandosi dal massimo degli ultimi sei mesi a 100,40, riflettendo una pausa nello slancio rialzista della valuta americana.

Oltre alle prese di profitto, gli investitori sono restii a creare nuove posizioni lunghe in vista dei dati chiave sull'inflazione negli Stati Uniti, che dovrebbero fornire prove più chiare sulla possibilità che la Federal Reserve mantenga i tassi invariati a dicembre.

Tariffe europee

• Attualmente, i prezzi di mercato riflettono una probabilità del 25% circa di un taglio dei tassi di interesse da parte della BCE di 25 punti base a dicembre.

• Gli investitori attendono ulteriori dati sull'inflazione, sulla disoccupazione e sui salari dell'Eurozona per rivalutare queste aspettative.

• La presidente della BCE Christine Lagarde terrà un discorso importante più tardi oggi, che dovrebbe riguardare i recenti sviluppi dell'inflazione e le prospettive per i tassi di interesse europei.

Prospettive per l'euro

• Secondo Economies.com: se i commenti di Lagarde suonassero meno aggressivi, le aspettative di un taglio dei tassi della BCE a dicembre si rafforzerebbero, esercitando un'ulteriore pressione al ribasso sull'euro rispetto a un paniere di valute.

Lo yen riprende le perdite a causa dei piani di stimolo di Takaichi

Economies.com
2025-11-24 05:15AM UTC

Lunedì, lo yen giapponese si è indebolito negli scambi asiatici rispetto a un paniere di valute principali e minori, riprendendo il suo calo dopo una breve pausa nella sessione precedente contro il dollaro USA, e tornando a muoversi verso i livelli più bassi degli ultimi dieci mesi. La valuta rimane chiaramente sotto pressione, a causa delle persistenti preoccupazioni per le politiche di stimolo economico del Primo Ministro Sanae Takaichi.

Allo stesso tempo, gli analisti vedono scarse possibilità di un intervento diretto a sostegno dello yen prima che raggiunga quota 160 per dollaro. Gli investitori sono inoltre in attesa di ulteriori indizi sul percorso della Banca del Giappone verso la normalizzazione della politica monetaria e potenziali aumenti dei tassi.

Panoramica dei prezzi

• La coppia USD/JPY è salita di circa lo 0,3% a 156,80¥ da un livello di apertura di 156,37¥, dopo aver toccato un minimo di sessione di 156,37¥.

• Lo yen ha chiuso la sessione di venerdì con un guadagno dello 0,7% rispetto al dollaro, il suo primo rialzo in sei giorni, sostenuto dagli acquisti a prezzi stracciati dopo aver toccato il minimo degli ultimi dieci mesi a 157,89 il giorno prima.

• La valuta ha perso l'1,2% la scorsa settimana, segnando il secondo calo settimanale consecutivo, sotto la pressione del pacchetto di stimoli di Takaichi.

Le politiche di stimolo di Takaichi

Il governo giapponese, guidato da Sanae Takaichi, ha approvato alla fine della scorsa settimana un pacchetto di stimolo economico da 21 trilioni di yen (135 miliardi di dollari), la prima importante iniziativa politica dell'amministrazione. Il programma riflette il suo approccio fiscale espansivo, volto a sostenere la stagnante attività economica del Giappone.

Il pacchetto include 17,7 trilioni di yen di spesa pubblica, superando di gran lunga i 13,9 trilioni di yen dello scorso anno, rendendolo il più grande stimolo economico dalla pandemia di COVID-19. Include anche 2,7 trilioni di yen di tagli fiscali. Il governo prevede di approvare un bilancio supplementare il 28 novembre per ottenere l'approvazione parlamentare prima della fine dell'anno.

Opinioni e analisi

• Christopher Wong, stratega FX presso l'OCBC, ha affermato che l'intervento non è escluso prima che l'USD/JPY raggiunga quota 160, aggiungendo che qualsiasi mossa potrebbe essere brusca date le scarse condizioni di liquidità.

• Michael Boutros, capo stratega di StoneX, ha sottolineato l'attuale tira e molla tra la Banca del Giappone e il nuovo primo ministro, che è "fortemente favorevole alle imprese e vuole che i mercati rimangano molto tranquilli".

• Boutros ha aggiunto: "Non credo che cambieranno idea sui tassi a breve. Potremmo invece assistere a discorsi di intervento e ad altri avvertimenti man mano che queste misure proseguono".

tassi di interesse giapponesi

• Attualmente il mercato stima una probabilità del 35% circa di un aumento dei tassi di interesse della BOJ di 25 punti base a dicembre.

• Per rivalutare queste probabilità, gli investitori stanno monitorando i prossimi dati sull'inflazione, la disoccupazione e la crescita dei salari in Giappone.

Ethereum crolla di oltre il 13% questa settimana

Economies.com
2025-11-21 21:13PM UTC

Venerdì le criptovalute hanno registrato un calo generalizzato, estendendo le forti perdite che le avevano trascinate ben al di sotto dei recenti picchi, con il Bitcoin che è scivolato sotto gli 82.000 dollari.

Il calo si verifica in un contesto di contrastanti aspettative sulla politica monetaria della Federal Reserve. L'ultimo rapporto sull'occupazione negli Stati Uniti ha smorzato le speranze di un taglio dei tassi a dicembre, ma tali aspettative sono riemerse oggi dopo le dichiarazioni di un alto funzionario della Fed.

Venerdì John Williams, presidente della Federal Reserve di New York, ha dichiarato di aspettarsi che la banca centrale abbia maggiori possibilità di ridurre i tassi di interesse.

L'influente politico ha spiegato, durante un discorso in Cile, che ritiene che i rischi a cui è esposto il mercato del lavoro siano maggiori di quelli legati all'inflazione, riecheggiando le opinioni dei membri più accomodanti del FOMC.

Williams ha aggiunto: "Considero la politica monetaria ancora moderatamente restrittiva, sebbene in misura minore rispetto a prima delle nostre recenti azioni. Continuo quindi a intravedere margini per un ulteriore aggiustamento a breve termine dell'intervallo obiettivo per il tasso sui fondi federali, al fine di avvicinare la politica monetaria alla neutralità e mantenere l'equilibrio tra i nostri due obiettivi".

Secondo lo strumento CME FedWatch, la probabilità di un taglio dei tassi di 25 punti base alla riunione di dicembre è salita al 75%, rispetto al 39% del giorno precedente e al 44,4% della settimana precedente.

I dati governativi pubblicati oggi hanno mostrato che l'indice PMI manifatturiero statunitense è sceso a 51,9 a novembre, rispetto al precedente 52,5, vicino alle aspettative di 52.

Nel frattempo, l'indice PMI dei servizi è salito a 55 questo mese da 54,8, sfidando le previsioni di un calo a 54,6.

Anche il sondaggio sulla fiducia dei consumatori condotto dall'Università del Michigan è migliorato, salendo da 50,3 a 51 e superando le aspettative di 50,6.

Ethereum

Per quanto riguarda il trading, Ethereum è sceso del 3,7% a 2.739,9 dollari alle 21:11 GMT, portando le sue perdite per la settimana al 13,2%.

Nvidia è in testa al mondo dei chip AI... ma chi può raggiungerla?

Economies.com
2025-11-21 17:59PM UTC

Mercoledì Nvidia ha superato ogni aspettativa, registrando profitti in forte crescita, trainati dalle sue unità di elaborazione grafica (GPU), eccellenti nel supportare i carichi di lavoro dell'intelligenza artificiale. Ma anche altre categorie di chip per l'intelligenza artificiale stanno iniziando a guadagnare terreno.

Tutti i principali fornitori di servizi cloud stanno ora progettando i propri circuiti integrati specifici per le applicazioni (ASIC), dal TPU di Google a Trainium di Amazon, fino ai piani di OpenAI con Broadcom. Questi chip sono più piccoli, più economici, più facili da usare e potrebbero ridurre la dipendenza di queste aziende dalle GPU di Nvidia. Daniel Newman di Futurum Group ha dichiarato alla CNBC di aspettarsi che i chip ASIC "crescano più velocemente del mercato delle GPU nei prossimi anni".

Oltre a GPU e ASIC, esistono i Field-Programmable Gate Array (FPGA), che possono essere riconfigurati dopo la produzione per usi come l'elaborazione del segnale, il networking e l'intelligenza artificiale. Esiste poi un'intera generazione di chip di intelligenza artificiale progettati per funzionare direttamente sui dispositivi anziché tramite il cloud, un segmento guidato da aziende come Qualcomm e Apple.

La CNBC ha parlato con esperti e addetti ai lavori delle principali aziende tecnologiche per analizzare questo panorama affollato e i diversi tipi di chip di intelligenza artificiale.

GPU per l'elaborazione generica

Un tempo le GPU venivano utilizzate principalmente per i videogiochi, ma una volta diventate il motore dell'intelligenza artificiale moderna, hanno trasformato Nvidia nell'azienda pubblica più quotata al mondo. Lo scorso anno, Nvidia ha distribuito circa 6 milioni di unità delle sue GPU "Blackwell" di ultima generazione.

Il passaggio dal gaming all'intelligenza artificiale è iniziato nel 2012, quando i ricercatori hanno addestrato la rete neurale AlexNet utilizzando GPU Nvidia, una svolta che molti considerano la scintilla della moderna rivoluzione dell'intelligenza artificiale. AlexNet ha partecipato a un concorso di riconoscimento delle immagini di alto profilo e si è affidato alle GPU anziché alle CPU, offrendo una precisione sorprendente e un notevole vantaggio competitivo.

La stessa capacità di elaborazione parallela che consente alle GPU di riprodurre grafica realistica le rende ideali anche per l'addestramento di modelli di deep learning, che apprendono dai dati anziché dalla programmazione esplicita.

Oggi, le GPU vengono vendute nei sistemi di data center abbinate alle CPU per eseguire carichi di lavoro di intelligenza artificiale basati sul cloud. Le CPU dispongono di pochi core potenti per attività sequenziali, mentre le GPU hanno migliaia di core più piccoli specializzati in operazioni parallele come la moltiplicazione di matrici.

Grazie alla possibilità di eseguire un numero elevato di operazioni contemporaneamente, le GPU sono ideali sia per l'addestramento che per l'inferenza. L'addestramento insegna ai modelli di intelligenza artificiale a individuare pattern in enormi set di dati; l'inferenza utilizza questi modelli per prendere decisioni su nuove informazioni.

Le GPU rimangono il motore principale per Nvidia e il suo concorrente più vicino, AMD. Il software è un fattore chiave di differenziazione tra le due aziende: Nvidia si affida al suo ecosistema CUDA, mentre AMD offre uno stack in gran parte open source.

Entrambe le aziende vendono GPU cloud a fornitori come Amazon, Microsoft, Google, Oracle e CoreWeave, che poi affittano la potenza di calcolo agli sviluppatori di intelligenza artificiale.

L'accordo da 30 miliardi di dollari di Anthropic con Nvidia e Microsoft, ad esempio, include l'equivalente di 1 gigawatt di capacità di calcolo basata su hardware Nvidia. AMD ha recentemente ottenuto importanti impegni anche da OpenAI e Oracle.

Nvidia vende anche direttamente a governi e aziende di intelligenza artificiale (tra cui almeno 4 milioni di GPU a OpenAI) e a governi stranieri come Corea del Sud, Arabia Saudita e Regno Unito.

L'azienda ha dichiarato alla CNBC che addebita circa 3 milioni di dollari per ogni cabinet server contenente 72 GPU Blackwell e che ne spedisce circa 1.000 ogni settimana.

Dion Harris, direttore senior per l'infrastruttura di intelligenza artificiale di Nvidia, ha affermato di non aver mai immaginato che la domanda sarebbe cresciuta a questo livello. "Quando anni fa abbiamo parlato con le aziende di un sistema a otto GPU, pensavano fosse eccessivo".

ASIC per l'intelligenza artificiale cloud specializzata

L'addestramento basato su GPU ha alimentato la prima ondata di modelli linguistici di grandi dimensioni, ma l'inferenza è diventata sempre più importante con la maturazione dei modelli. L'inferenza può essere eseguita su chip meno flessibili e meno costosi, costruiti specificamente per determinate operazioni matematiche: è qui che entrano in gioco gli ASIC.

Se una GPU è un "coltellino svizzero" in grado di eseguire numerose attività parallele, un ASIC è uno strumento monouso: estremamente veloce ed efficiente, ma vincolato a un solo tipo di operazione una volta prodotto.

"Non è possibile modificare questi chip una volta incisi nel silicio", ha affermato Chris Miller, autore di *Chip War*. "C'è un compromesso tra efficienza e flessibilità".

Le GPU di Nvidia sono sufficientemente versatili da soddisfare innumerevoli esigenze di intelligenza artificiale, ma sono costose (fino a 40.000 dollari l'unità) e difficili da reperire. Le startup si affidano a loro anche perché progettare un ASIC personalizzato può costare decine di milioni.

Tuttavia, i giganti del cloud stanno investendo molto negli ASIC perché promettono grandi risparmi su larga scala.

"Queste aziende vogliono avere un maggiore controllo sui carichi di lavoro che sviluppano", ha affermato Newman. "Ma continueranno a collaborare con Nvidia e AMD: la domanda di elaborazione è enorme".

Google è stata la prima a sviluppare un ASIC AI personalizzato, lanciando la Tensor Processing Unit (TPU) nel 2015. I lavori sono iniziati nel 2006, ma sono diventati urgenti nel 2013, quando Google si è resa conto che l'intelligenza artificiale avrebbe potuto raddoppiare le dimensioni dei suoi data center. Nel 2017, la TPU ha contribuito a rendere possibile l'architettura Transformer, alla base della maggior parte delle moderne AI.

Google ha presentato la TPU di settima generazione a novembre. Anthropic addestrerà il suo modello Claude su un milione di TPU. Alcuni ritengono che le TPU possano competere, o addirittura superare, le prestazioni delle GPU Nvidia.

"Molte persone si aspettano che prima o poi Google renda le TPU disponibili su un numero maggiore di dispositivi", ha affermato Miller.

AWS ha seguito l'esempio con i propri chip dopo aver acquisito Annapurna Labs nel 2015. Ha lanciato Inferentia nel 2018 e Trainium nel 2022, mentre Trainium3 è previsto a breve.

Amazon afferma che Trainium offre un rapporto qualità-prezzo dal 30% al 40% migliore rispetto alle alternative. Anthropic utilizza attualmente mezzo milione di chip Trainium2 per addestrare i suoi modelli.

Per realizzare ASIC personalizzati, i provider cloud si affidano ad aziende come Broadcom e Marvell, che forniscono competenze fondamentali in materia di IP e networking. "Ecco perché Broadcom è diventata uno dei maggiori vincitori del boom dell'intelligenza artificiale", ha affermato Miller.

Broadcom ha contribuito alla progettazione delle TPU di Google e degli acceleratori Meta del 2023 e sta sviluppando chip personalizzati per OpenAI a partire dal 2026.

Microsoft ha sviluppato il Maia 100. Qualcomm ha l'A1200. Intel offre la linea Gaudi. Tesla sta lavorando al suo chip AI5. Startup come Cerebras e Groq stanno promuovendo nuove architetture.

In Cina, Huawei, ByteDance e Alibaba stanno progettando i propri ASIC nonostante le restrizioni all'esportazione imposte dagli Stati Uniti.

Intelligenza artificiale a livello di dispositivo con NPU e FPGA

Una terza categoria di chip di intelligenza artificiale è progettata per eseguire modelli direttamente sui dispositivi anziché tramite il cloud. Questi chip sono in genere integrati in progetti SoC (system-on-a-chip) e sono noti come processori edge-AI. Consentono alle funzionalità di intelligenza artificiale di funzionare localmente ed efficientemente, preservando la durata della batteria e la privacy.

"Sarete in grado di eseguire attività di intelligenza artificiale direttamente sul vostro telefono con una latenza estremamente bassa", ha affermato Saif Khan, ex consulente per l'intelligenza artificiale e la tecnologia della Casa Bianca. "E senza inviare dati a un data center".

Le unità di elaborazione neurale (NPU) rappresentano una parte importante di questa categoria, sviluppate da Qualcomm, Intel, AMD e altri.

Apple non utilizza il termine NPU, ma integra un "motore neurale" nei chip dei suoi Mac serie M e nei chip dei suoi dispositivi mobili serie A.

"Questo approccio si è dimostrato incredibilmente efficace", ha affermato Tim Millet, vicepresidente dell'architettura della piattaforma di Apple. "È veloce e ci offre un maggiore controllo sull'esperienza".

I chip Snapdragon nei telefoni Android, le NPU personalizzate di Samsung e i processori edge-AI di NXP e Nvidia alimentano l'intelligenza artificiale in automobili, robot, fotocamere e dispositivi per la casa intelligente.

"Oggi la maggior parte della spesa è ancora destinata ai data center", ha affermato Miller. "Ma la situazione cambierà con la diffusione dell'intelligenza artificiale nei telefoni, nelle automobili, nei dispositivi indossabili e in tutto il resto".

Gli FPGA offrono ancora più flessibilità perché possono essere riprogrammati dopo la produzione, anche se sono meno efficienti dal punto di vista energetico rispetto agli ASIC o alle NPU.

AMD è diventata il più grande produttore di FPGA dopo aver acquisito Xilinx per 49 miliardi di dollari nel 2022. Intel si classifica al secondo posto dopo aver acquistato Altera per 16,7 miliardi di dollari nel 2015.

In conclusione: Nvidia è ancora molto avanti

Tutte queste aziende produttrici di chip per l'intelligenza artificiale si affidano a un unico produttore: TSMC di Taiwan.

TSMC sta costruendo un enorme sito produttivo in Arizona, dove Apple trasferirà parte della sua produzione. A ottobre, il CEO di Nvidia, Jensen Huang, ha dichiarato che anche lì le GPU Blackwell hanno raggiunto la "piena produzione".

Nonostante il mercato sia sempre più affollato, spodestare Nvidia resta estremamente difficile.

"Nvidia è in questa posizione perché se l'è meritata", ha detto Newman. "Ha dedicato anni a costruire questo ecosistema di sviluppatori, ed è quella che ha vinto".