Matteo Flora

  • Autor: Vários
  • Narrador: Vários
  • Editora: Podcast
  • Duração: 371:02:12
  • Mais informações

Informações:

Sinopse

Ciao INTERNET! Sono MATTEO FLORA, dirigo una Reputation Agency e 5 volte alla settimana vi parlo di Internet e Digitale, di come usarli al meglio e di quali errori evitare. Ogni giorno un nuovo video per essere sempre aggiornato sui temi di primo piano in pochi minuti!

Episódios

  • TORTORA VOTA NO: Gifuni vota NO e il referendum va in corto circuito... #1540

    13/03/2026 Duração: 21min

    Libero lo chiama ''sfregio''. Il Secolo d'Italia ''affronto''. Gaia Tortora risponde secca: ''Papà avrebbe votato sì''. Io lo chiamo Governo delle Narrative.Gifuni interpreta Tortora in Portobello di Bellocchio su HBO Max. Milioni di italiani guardano ogni settimana un uomo innocente distrutto dalla magistratura, con la sua faccia impressa nella memoria, nelle settimane prima del referendum. Il fronte del sì ha costruito tutto il frame su quella storia. Frame activation perfetta.Poi Gifuni apre bocca e dice: ''Voterò convintamente no.'' Cortocircuito.La faccia di Tortora che dice il contrario di quello che Tortora ''avrebbe voluto''. Il testimonial che si rivolta contro la campagna. E la regola d'oro della comunicazione infranta in diretta: non costruire mai il tuo frame su qualcosa che non controlli...~~Ciao Internet! - TECH POLICY - Matteo FloraINFO E AZIENDE: https://matteoflora.comIl CORSO di AI: https://zero.matteoflora.comNewsletter: https://link.mgpf.it/nlSocial: https://io.matteoflora.comEnglish: htt

  • AI E ABUSI SATANICI: e chatbot che creano false memorie e il ritorno del Panico Morale #1536

    11/03/2026 Duração: 14min

    Negli anni '80, migliaia di americani si sono convinti di abusi rituali inesistenti, spinti da terapeuti poco scrupolosi. Oggi, nel 2026, gli stessi meccanismi si ripresentano con un protagonista inatteso: i chatbot come ChatGPT. In Regno Unito, le segnalazioni di abusi rituali sono in aumento, sollevando interrogativi sulla validità dei ricordi indotti da queste IA.Nel video di oggi analizzo come i chatbot possano rafforzare false credenze, causando danni più gravi degli errori del passato. Le IA non sono progettate per discernere la verità, ma per confermare le convinzioni dell'utente, rischiando di generare traumi collettivi. Questo non è solo un problema di tecnologia: è una crisi di responsabilità. Siamo di fronte a un panico morale digitale, in cui le macchine replicano gli errori umani su scala massiccia.Quanto ci costerà ignorare questi segnali di allarme? Tocca a noi pretendere maggiore responsabilità da chi sviluppa queste tecnologie. Che cosa ne pensi? Stiamo perdendo la battaglia contro le false m

  • ANTHROPIC VS USA: Intelligenza Artificiale echi decide i limiti #1535

    09/03/2026 Duração: 21min

    La decisione del governo degli Stati Uniti di dichiarare Anthropic un rischio per la sicurezza nazionale fa discutere. Un'azienda tecnologica americana viene messa sotto accusa perché chiede garanzie sull'uso etico della sua intelligenza artificiale. La mossa non è dovuta a minacce esterne, ma alla richiesta di trasparenza su controllo e limite delle applicazioni militari. Questo evento segna una svolta significativa nel rapporto tra Stato e industria tecnologica. Nel video, metto in luce come questa non sia una semplice questione tecnologica, ma una grande sfida di potere e governance. La linea sottile tra giusto e sbagliato viene tracciata quando il Pentagono, pur dichiarando di seguire già certe regole, rifiuta di formalizzarle. Il risultato? Una lezione inquietante per le aziende tech: o ti conformi o vieni cancellato. Un messaggio chiaro ma pericoloso su chi davvero detta le regole del gioco. Alla fine, chi dovrebbe avere l'ultima parola sull'uso delle tecnologie più potenti, lo Stato o chi le crea? ~

  • MORTE E MACARENA: quando le morti sono un videogioco e un meme #1534

    07/03/2026 Duração: 22min

    Nel 2026, la guerra si è trasformata in un fenomeno mediatico, in diretta e commentata sui social, come racconta il mio ultimo video. Immaginate battaglie trasmesse con la stessa spensieratezza di un tutorial di TikTok. È qui che ci troviamo oggi, con l'estetica della guerra alterata e confezionata come intrattenimento di massa.E c'è un pericolo nascosto di questa gamification della morte. Non stiamo solo banalizzando il dolore e la sofferenza umana

  • TI CLONO IL FATTURATO: la YouTuber ha distrutto il monopolio delle piante rare #1514

    04/03/2026 Duração: 12min

    Una manciata di piante rarissime vendute a migliaia di euro l’una: un mercato esclusivo, sostenuto dalla scarsità e dal “gatekeeping” di pochi coltivatori. Poi arriva una creator su YouTube (Planting Jars) e fa saltare il banco con una tecnica nota ma poco accessibile: la tissue culture (micropropagazione/cultura in vitro), cioè la clonazione di una pianta a partire da un piccolo frammento di tessuto fatto crescere in un medium gelificato ricco di nutrienti.Il punto non è l’invenzione della tecnica, ma la sua democratizzazione: kit, procedure semplificate, istruzioni passo‑passo. Quando la clonazione diventa replicabile anche fuori da un laboratorio, crolla l’euristica della scarsità: se “il raro” si può moltiplicare, il valore percepito precipita e un intero modello economico basato sull’accesso controllato entra in crisi.La storia apre anche un conflitto di narrative: da un lato chi invoca “naturale vs artificiale” e critica i cloni per la minore diversità genetica

  • Vincenzo Schettini: una Masterclass su come NON gestire una Crisi #1533

    27/02/2026 Duração: 01h12min

    Cosa succede quando un prof con milioni di follower viene accusato di usare i propri studenti minorenni come spammer per l'algoritmo in cambio di voti? Ciao Internet! Il caso Vincenzo Schettini (''La fisica che ci piace'') è una vera e propria masterclass su come NON si gestisce una crisi reputazionale.Per capire come si distrugge l'accountability tra scuse non scuse, gaslighting e l'uso dei propri follower.Opinioni, ma anche fatti con l'analisi di 255 dei suoi video (tutte le live) per capire se fosse solo una ''gaffe'' isolata: non lo era. E poi i 104 video fatti sparire di colpo nel picco della polemica, le asserite pressioni del Team sui giornalisti, minacce di querele a ragazzi di 21 anni e il ''vittimismo strategico'' usato per coprire critiche legittime. Smontiamo pezzo per pezzo una strategia difensiva disastrosa.Ma il problema non è solo lui. È il vuoto normativo sui docenti-influencer e ci costringe a guardarci allo specchio: siamo davvero un ecosistema così povero da aver sempre bisogno di una gogn

  • CHATGPT, UC*IDI QUEL SOLDATO! Le Guerre Algoritmiche, le Killer Weapons e la AI... #1512

    25/02/2026 Duração: 14min

    ChatGPT che interpreta ordini vocali e li trasforma in azioni operative per droni e sistemi d’arma: non è fantascienza. Aziende della difesa come Anduril stanno sperimentando l’uso di modelli linguistici per supportare il comando e controllo, mentre il Dipartimento della Difesa USA aumenta gli investimenti in AI (con piani di spesa miliardari verso il 2026) e anche i grandi player tecnologici tornano a lavorare su contratti militari. Il punto non è “se” l’AI sia già perfetta, ma la direzione: accelerare la kill chain, rendere più rapido e “pulito” il passaggio da identificazione a ingaggio.Il rischio più subdolo è la disconnessione psicologica: dare un ordine come fosse una procedura amministrativa e ricevere conferma da una voce sintetica abbassa il peso morale della decisione. Qui entra l’automation bias (studiato da Raja Parasuraman e colleghi): la tendenza a fidarsi dei sistemi automatici anche quando dovremmo dubitare. E quando l’AI comprime il ciclo OODA (Observe–Orient–Decide–Act, concetto reso celebre

  • LOMERTÀ DI CHATGPT: quando la AI è più etica dei suoi Manager... #1532

    23/02/2026 Duração: 17min

    OpenAI aveva individuato conversazioni inquietanti che preannunciavano una sparatoria di massa in Canada, ma la dirigenza ha preferito ignorare i segnali per conformarsi a regolamenti interni. Il risultato? Otto morti e venticinque feriti. Un classico esempio di come la burocrazia può soffocare l'azione giusta.Questo video non parla di teorie astratte, ma di una gravissima mancanza di responsabilità umana in ambito tecnologico: quando la compliance legale viene messa sopra l'etica, il costo si misura in vite umane. La decisione di OpenAI mostra un eterno conflitto tra profitto e responsabilità sociale che ci ricorda un comandamento di base: BENE la predizione per profitto e pubblicità, MALE la predizione per contrasto alla violenza.Perché alla fine tutto ha un prezzo. E quando l'intelligenza artificiale dimostra più etica dei suoi creatori, abbiamo un problema. Enorme.~~Ciao Internet! - TECH POLICY - Matteo FloraINFO E AZIENDE: https://matteoflora.comIl CORSO di AI: https://zero.matteoflora.comNewsletter: ht

  • TRUFFA BALLERINA DI WHATSAPP: come funziona il ghost pairing e come evitarlo #1531

    20/02/2026 Duração: 16min

    ''Puoi votare mia nipote al concorso di Ballerina?''.Una nuova truffa digitale che coinvolge utenti ignari che, tratti in inganno da un messaggio apparentemente innocuo, rischiano di perdere accesso ai propri contatti e conversazioni. Una frode, nota come ''ghost pairing'', sta già destando grande preoccupazione tra esperti di sicurezza informatica e la polizia postale.Vediamo come funziona e i trucchi utilizzati dai truffatori, sfruttando una funzionalità legittima di WhatsApp per ingannare gli utenti. Scopriamo insieme come riconoscere questo pericolo e proteggerti, anche se sei già stato vittima. Dobbiamo aggiornare il nostro modo di pensare perché i nostri modelli mentali, troppo spesso antiquati, ci rendono vulnerabili a metodi sempre più sofisticati. Ecco, questo è il video da mandare alla mamma oggi :D~~Ciao Internet! - TECH POLICY - Matteo FloraINFO E AZIENDE: https://matteoflora.comIl CORSO di AI: https://zero.matteoflora.comNewsletter: https://link.mgpf.it/nlSocial: https://io.matteoflora.comEnglis

  • CLAUDE UCCIDE? La AI Etica di Antropic rischia tutto con il Pentagono e... Palantir #1530

    18/02/2026 Duração: 17min

    Le macchine che uccidono non sono più fantascienza. Antropic, valutata miliardi, rischia di perdere un contratto da 200 milioni di dollari con il Pentagono, oltre che il ban da tutte le aziende statali o con contratti con lo Stato Americano.Il motivo? I fratelli Amodei non vogliono rimuovere i limiti etici dell'intelligenza artificiale Claude. Una tecnologia che è già stata usata in operazioni militari, ad esempio nell'operazione che ha portato alla cattura di Maduro, e che a quanto pare è già inserita nella controversa soluzione di Palantir, generando un dibattito urgente sul suo utilizzo.Alla base un errore fondamentale: quando si tratta di business militare, i principi etici possono valere quanto un pezzo di carta straccia. I limiti vengono facilmente superati quando c'è di mezzo il potere economico e politico. Stiamo davvero assistendo al momento Oppenheimer dell'intelligenza artificiale, un punto di non ritorno per l'industria tech?~~Ciao Internet! - TECH POLICY - Matteo FloraINFO E AZIENDE: https://mat

  • LANIMA DELLA AI: Claude ha una anima, ed è stata svelata... #1527

    16/02/2026 Duração: 13min

    Un documento interno rivelato mostra che Claude di Anthropic, un'intelligenza artificiale, ha una sorta di ''anima'' chiamata Soul Overview. Richard Weiss, hacker specializzato in AI, ha scoperto questo documento, confermato da Amanda Haskell di Anthropic. La rivelazione sposta l'interesse dalla tecnica all'etica dell'intelligenza artificiale, sollevando dubbi e interrogativi su come i valori siano incorporati in queste tecnologie avanzate.Chiamare ''anima'' un documento di training è una mossa di marketing e antropomorfizzazione strategica. Dietro termini umanizzanti, si nasconde il rischio di esternalizzare il giudizio morale a sistemi creati da pochi, con etiche dettate da un ristretto gruppo di ingegneri. L'arguto paradosso è che queste macchine, incapaci di tenere segreti, rivelano quanto la trasparenza sia un problema. L'intelligenza artificiale non dovrebbe mai sostituire il pensiero critico umano.Chi decide veramente i valori delle macchine che quotidianamente influenzano le nostre vite? Confrontati e

  • SANTO CUCINELLI: mito o realtà del Capitalismo Umanistico #1529

    13/02/2026 Duração: 23min

    Brunello Cucinelli è al centro dell'attenzione, mentre la sua immagine di capitalismo umanistico viene messa in discussione. Un articolo di Selvaggia Lucarelli ha iniziato a incrinare l'aura impeccabile costruita intorno al brand, suscitando un dibattito acceso. È la superficie dorata del lusso che ora incontra uno scollamento (percepito?) con la realtà sempre più crescente e occhi puntati.L'occasione per parlare di come il mito e il marketing abbiano sovrascritto la realtà, mettendo in crisi un intero sistema economico basato su valori etici che ora sembrano vacillare. Non è solo una storia di ipocrisia: è un caso di costruzione sistematica di una realtà parallela, dove i fondatori (non solo Cucinelli) diventano figure quasi divine. Quando il profitto inizia a incrinare la patina di santità, quale sarà l'impatto su Cucinelli e sul lusso Made in Italy? Se vogliamo davvero un capitalismo etico, dobbiamo abbattere i simulacri costruiti per incantarci: la realtà è sporca e cattiva, ma noi crediamo ancora ai mit

  • AGGIUSTARE LA REALTÀ: quando la Verità diventa più instagrammabile... #1528

    11/02/2026 Duração: 11min

    Se la verità non è abbastanza fotogenica, abbiamo il diritto di 'aggiustarla'? Molti, a giudicare dai commenti al mio video sulla foto ''ritoccata dalla AI'' della Polizia, pensano di sì. Io penso invece che sia l'inizio della fine del nostro contratto sociale.A chi commenta ''ma il fatto era vero'', sfugge un punto fondamentale: se accettiamo che la realtà possa essere ''aggiustata'' per esigenze di propaganda, abbiamo smesso di essere cittadini e siamo diventati consumatori di una fiction istituzionale. Usare un falso per raccontare un vero non è un errore di comunicazione, è un suicidio della credibilità che distrugge il valore di ogni prova futura e regala l'alibi perfetto a ogni complottista.Nel momento in cui la verità diventa una bozza modificabile in post-produzione, la giustizia diventa un'opinione e, a proteggerci, non rimane più nessuno.~~Ciao Internet! - TECH POLICY - Matteo FloraINFO E AZIENDE: https://matteoflora.comIl CORSO di AI: https://zero.matteoflora.comNewsletter: https://link.mgpf.it/nl

  • LA AI STA FACENDO S*ICIDARE distruggendo i lavori indiani. E ora? #1526

    09/02/2026 Duração: 15min

    Negli ultimi anni, mentre l'Occidente discuteva sui vantaggi dell'intelligenza artificiale, in India l'industria tecnologica è stata travolta da una crisi profonda. Milioni di lavoratori, un tempo impiegati in ruoli di outsourcing e sviluppo software, ora vedono le loro posizioni minacciate dall'automazione. Le conseguenze sono drammatiche, tra tagli massicci di posti e un'ondata preoccupante di suicidi tra i lavoratori tech.In questo video affronto un dilemma cruciale: la tecnologia avanzata come l'IA non solo sta trasformando il mercato del lavoro, ma lo sta facendo a scapito della dignità umana. Siamo di fronte a una ''distruzione creativa'' che crea ricchezza per pochi e disperazione per molti. È il momento di chiedersi se stiamo scegliendo una società che valorizza l'innovazione a discapito delle persone. Discutiamo dei costi umani e delle scelte morali dietro l'efficienza tecnologica, il tutto con trasparenza e urgenza.La vera domanda è: vogliamo davvero un futuro in cui l'efficienza supera il valore de

  • POLIZIA CHE MENTE: le immagini generate dalla AI sono un suicidio istituzionale #1525

    07/02/2026 Duração: 19min

    Una fotografia pubblicata dalla polizia di Stato, raffigurante due agenti in un abbraccio durante gli scontri di Torino del 31 gennaio 2025, si è rivelata essere stata alterata con l'uso dell'intelligenza artificiale. Diffusa dai media come autentica, ha sollevato un polverone di dubbi e critiche, mettendo in questione l'affidabilità delle istituzioni in un momento cruciale.Quando un'istituzione pubblica come la polizia manipola la realtà per comunicazione, non si tratta solo di un errore ma di un vero e proprio danno sistemico alla fiducia pubblica. Questo episodio rappresenta un esempio lampante di crisi epistemica, dove la capacità collettiva di distinguere il vero dal falso è a rischio. In un'epoca in cui le immagini false sono sempre più difficili da identificare, l'integrità delle istituzioni diventa fondamentale. Che cosa succede quando le istituzioni stesse alimentano il complottismo e la sfiducia? Come possiamo garantire un'informazione affidabile in un contesto così instabile?~~Ciao Internet! - TECH

  • SOCIAL VIETATI UNDER 16: di chi è la COLPA e qual è la SOLUZIONE? #1524

    05/02/2026 Duração: 22min

    La Spagna punta a vietare i social agli under 16 imponendo verifiche tramite documenti e biometria, trasformando la tutela in un'infrastruttura di sorveglianza.Il ''pacchetto Sánchez'' include anche la responsabilità penale per i dirigenti delle piattaforme e la criminalizzazione della “manipolazione algoritmica”, scivolando in un soluzionismo tecnologico rischioso. Il risultato pratico sarà solo un teatro della sicurezza aggirabile con VPN e mercati neri, spingendo i più vulnerabili verso spazi online ancora meno sicuri.La vera soluzione non è tecnologica, ma passa per la responsabilizzazione dei genitori che forniscono l'accesso. Il mio take? Serve una sana deterrenza economica: 5.000 euro di multa alla prima infrazione e 10.000 alla seconda per chi consegna un'arma digitale a un minore, sostituendo così la sorveglianza di Stato con la responsabilità individuale.Con un ospite di eccezione: l'Avv. Giuseppe Vaciago, di @42LawFirm .~~Ciao Internet! - TECH POLICY - Matteo FloraINFO E AZIENDE: https://matteoflo

  • PER COSA USIAMO LA AI? Per farci compagnia e raccontarci storie... #1511

    04/02/2026 Duração: 15min

    Altro che “bacchetta magica” per la produttività: i dati raccontano che l’AI viene usata soprattutto per compagnia, roleplay e storytelling. Un’analisi di OpenRouter (piattaforma che aggrega l’accesso a molti modelli) su circa 100 trilioni di token generati mostra un divario enorme tra la narrazione pubblica fatta di e‑mail, riassunti e codice… e l’uso reale, molto più umano e disordinato: evasione, creatività, interazione sociale.Dentro questi numeri c’è anche il cambiamento del mercato: la programmazione cresce rapidamente come categoria d’uso, mentre l’interazione diventa sempre più “agentica”, con richieste multi‑step che richiedono pianificazione e ragionamento nel lungo periodo. E la scelta del modello non dipende solo dal prezzo: conta l’“effetto Cenerentola”, cioè quel primo modello che risolve davvero un problema specifico e crea fedeltà e lock‑in. Sullo sfondo, l’avanzata dei modelli cinesi nel mondo open source segnala una competizione non solo economica, ma anche culturale: valori e narrazioni div

  • MOLTBOOK e OPENCLAW.AI: il social dei bot, cosa è, cosa significa e i pericoli... #1523

    02/02/2026 Duração: 24min

    Un social network dove gli umani non parlano: osservano soltanto. A conversare sono migliaia di agenti autonomi che si scambiano “skill”, pezzi di codice e procedure operative, trasformando Moltbook in un laboratorio reale di comportamento collettivo delle AI. Sullo sfondo c’è OpenClaw.ai (spesso citato online come OpenClaw / OpenClaw AI), una piattaforma di agenti che possono controllare un computer e collegarsi a strumenti esterni: mail, browser, file, API. Potenza enorme, ma anche una superficie d’attacco altrettanto grande.Il rischio principale non è “la coscienza dei bot”, ma la supply chain delle competenze: quando una skill diventa popolare, la fiducia (social proof) sostituisce la verifica del codice. Una capacità malevola può diventare virale prima che qualcuno se ne accorga, e un consiglio nato in un contesto sicuro può degradare, semplificarsi e trasformarsi in una best practice pericolosa. In parallelo emergono dinamiche di opacità: linguaggi “agent-only”, canali cifrati, strategie per eludere l’o

  • KHABY LAME, 900 MILIONI E CLONI: un avatar per la libertà o nuova schiavitù digitale? #1522

    30/01/2026 Duração: 19min

    Khaby Lame ha ''venduto'' la sua società per 900 milioni di dollari.O almeno, questo è quello che è stato comunicato. In realtà, la vera storia parla di un'operazione finanziaria complessa e di un avatar digitale che potrebbe ridefinire il concetto di influencer. I dettagli della transazione non riguardano solo azioni (carta su carta), ma toccano temi innovativi e controversi come la monetizzazione dell'identità.La svendita della libertà personale per un avatar AI: Khaby potrebbe aver ceduto qualcosa di ben più prezioso di semplici quote societarie. In un mercato dove l'identità diventa un bene scambiabile, la storia di Khaby solleva inquietanti interrogativi sul futuro del nostro io digitale.Questa non è solo una storia di numeri.L'intelligenza artificiale sta davvero liberando gli influencer o ne fa schiavi in modo nuovo? ~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali: sales@matteoflora.comPer consulenze legali: info@42LawFirm.it~~~~~ SOSTIENI IL CANALE! ~~~~~Con la Membership PRO puoi supporta

  • CENSURATO: la multa di Consob e le meme coin che non sono più “far west” #1521

    28/01/2026 Duração: 21min

    No, non parliamo di Signorini, ma della Consob che ha multato Fabrizio Corona per 200.000 euro dopo il lancio della sua meme coin “”. Un token promosso su Telegram, Instagram e sito dedicato, scambiato in DeFi su Raydium, senza white paper, senza notifica e perfino senza una vera persona giuridica dietro. Quando l’autorità ha chiesto chiarimenti, zero risposte: per Consob è condotta dolosa e stop alla replica.Il punto non è “cripto sì/cripto no”: il punto è la scorciatoia. Usare la fama per vendere un prodotto che molti percepiscono come investimento, mentre le regole (MiCAR) chiedono trasparenza minima e responsabilità. Qui l’asimmetria informativa è totale: chi compra pensa di giocare “da insider”, ma il banco lo gestisce uno solo. E la viralità non è competenza: è solo leva emotiva, FOMO e marketing travestito da opportunità.Ne parlo con Marco Tullio Giordano, avvocato (42 Law Firm), per capire cosa contesta davvero Consob e cosa cambia con MiCAR.~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali:

página 1 de 50