Il panorama dell'edge computing, un tempo un confine nascente, è maturato in un robusto campo di battaglia per applicazioni a bassa latenza e ad alte prestazioni. Mentre ci avviciniamo alla fine del 2025, i progressi di attori chiave come Cloudflare Workers e Deno Deploy non sono semplicemente iterativi; rappresentano un cambiamento fondamentale nel modo in cui gli sviluppatori progettano e distribuiscono sistemi globalmente distribuiti. Avendo dedicato tempo considerevole a testare queste piattaforme, è chiaro che entrambe hanno apportato miglioramenti sostanziali, spingendo i confini di ciò che è pratico ed efficiente per il serverless all'edge. Questa analisi approfondisce i recenti sviluppi tecnici, confrontando i loro approcci ed evidenziando le realtà operative per gli sviluppatori senior.
Il Paesaggio Runtime in Evoluzione: V8 Isolates vs. la Piattaforma Web di Deno
Il fondamento delle prestazioni dell'edge computing risiede nel suo ambiente runtime. Cloudflare Workers, basato su V8 Isolates, continua a sfruttare questa scelta architetturale per prestazioni di avvio a freddo e efficienza delle risorse senza pari. Ogni invocazione di Worker viene eseguita in un V8 Isolate leggero, offrendo un forte confine di sicurezza e un overhead minimo senza la necessità di tempi di avvio tradizionali di container o VM. I recenti aggiornamenti al motore V8 stesso, come l'aggiornamento V8 13.3 a gennaio 2025, hanno ulteriormente ottimizzato la velocità di esecuzione e l'impronta di memoria per i Workers.
Ad esempio, considera un tipico Worker che serve un endpoint API. Il modello V8 Isolate garantisce che l'overhead per un nuovo contesto di esecuzione sia nell'ordine del sub-millisecondo, un fattore critico per le applicazioni sensibili alla latenza. Questo contrasta nettamente con le offerte serverless basate su container, dove i tempi di avvio a freddo possono ancora aggirarsi intorno a centinaia di millisecondi o addirittura secondi. L'ambiente di sviluppo workerd di Cloudflare, che alimenta i Workers localmente, fornisce un'esperienza di sviluppo ad alta fedeltà, garantendo che i test locali riflettano accuratamente il comportamento in produzione, un dettaglio cruciale spesso trascurato nei sistemi distribuiti.
Deno Deploy, d'altra parte, sfrutta il runtime Deno, anch'esso basato su V8, ma offre un insieme distinto di vantaggi radicati nella sua aderenza agli standard Web e a un modello di autorizzazioni predefinito sicuro. Il rilascio di Deno 2 nel 2024 ha portato progressi significativi nella compatibilità con Node.js e npm, consentendo a una più ampia gamma di ecosistemi JavaScript esistenti di essere eseguiti su Deno Deploy con maggiore facilità. Ciò significa meno cicli di riscrittura per la migrazione di applicazioni Node.js, un vantaggio pratico spesso richiesto dai team che desiderano adottare piattaforme edge senza una revisione completa. Il runtime di Deno dà priorità a un'esperienza di sviluppo semplificata integrando una toolchain completa (formatter, linter, test runner) e offrendo autorizzazioni esplicite, riducendo la superficie di attacco della supply chain inerente alla gestione dei pacchetti Node.js tradizionali.
I numeri raccontano una storia interessante quando si confronta l'overhead del runtime. Sebbene entrambi siano altamente ottimizzati, la multi-tenancy di Cloudflare Workers a livello di isolate generalmente presenta un overhead per invocazione inferiore, soprattutto per funzioni estremamente di breve durata. Deno Deploy, con il suo ambiente runtime più olistico, fornisce un modello di programmazione più familiare per gli sviluppatori provenienti da Node.js, sebbene con un consumo di risorse di base leggermente superiore per istanza attiva, comunque nettamente superiore ai container serverless tradizionali. La scelta tra loro spesso si riduce all'ecosistema esistente dello sviluppatore e ai requisiti specifici di isolamento e prestazioni di avvio.
L'Edge Persistente: D1, Durable Objects e Deno KV
La gestione dello stato all'edge è stata a lungo una sfida, ma i recenti sviluppi hanno portato robuste opzioni di persistenza globalmente distribuite in primo piano.
Cloudflare D1, ora generalmente disponibile da aprile 2024, è il database SQL serverless gestito da Cloudflare, basato su SQLite. È progettato per la scalabilità orizzontale su più database più piccoli (fino a 10 GB per database, con 1 TB di spazio di archiviazione totale per account per i piani a pagamento). L'appeal di D1 risiede nella sua semantica SQL compatibile con SQLite, che consente agli sviluppatori di sfruttare strumenti e linguaggi di query familiari direttamente dai loro Workers. I recenti miglioramenti includono il supporto per la localizzazione dei dati, che consente agli sviluppatori di configurare la giurisdizione per l'archiviazione dei dati (a partire da novembre 2025), e i tentativi automatici per le query in sola lettura (settembre 2025), che migliorano significativamente l'affidabilità in un ambiente distribuito.
Per un esempio pratico, considera un servizio di profili utente. Invece di un database monolitico, D1 incoraggia un modello "database per utente" o "database per tenant".
// wrangler.toml configuration for D1 binding
[[d1_databases]]
binding = "DB"
database_name = "my-app-db"
database_id = "YOUR_DATABASE_ID"
// Worker code snippet interacting with D1
interface Env {
DB: D1Database;
}
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const { pathname } = new URL(request.url);
if (pathname === "/users") {
const { results } = await env.DB.prepare("SELECT * FROM users").all();
return Response.json(results);
}
// ... other endpoints
},
};
Questo semplice binding consente l'esecuzione diretta di SQL, con Cloudflare che gestisce la distribuzione e la replica sottostanti. Le prestazioni per le letture localizzate sono impressionanti, spesso nell'ordine dei singoli millisecondi, mentre le scritture comportano una latenza leggermente superiore a causa del routing alla replica primaria.
Cloudflare Durable Objects offrono un approccio fondamentalmente diverso, ma complementare, allo stato. Ora con lo storage basato su SQLite generalmente disponibile da aprile 2025, Durable Objects forniscono singleton globalmente univoci e con stato che combinano calcolo con storage durevole. Questo modello è ideale per applicazioni collaborative in tempo reale, giochi multiplayer o qualsiasi scenario che richieda una forte coerenza e coordinamento tra più client. Ogni Durable Object può contenere fino a 10 GB di storage SQLite.
Un recente sviluppo significativo (dicembre 2025) è il miglioramento del supporto per WebSockets Hibernabili e l'utilizzo di storage SQLite con metodi RPC all'interno di Durable Objects. I WebSockets hibernabili consentono ai Durable Objects di "dormire" quando sono inattivi, riducendo drasticamente i costi operativi per le applicazioni in tempo reale che mantengono molte connessioni aperte ma hanno un'attività intermittente. Quando arriva un messaggio, l'oggetto viene rapidamente riattivato. Questa innovazione è fondamentale per scalare le applicazioni che tradizionalmente richiederebbero server sempre attivi.
Deno KV, il key-value store globalmente distribuito di Deno Deploy, fornisce un'altra robusta opzione per la persistenza edge. Supportato da FoundationDB su Deno Deploy, offre scalabilità senza soluzione di continuità e replica globale. Deno KV è profondamente integrato con Deno Deploy, creando automaticamente database logici isolati per diversi ambienti di distribuzione (produzione, rami Git, timeline di anteprima). Questo isolamento è una caratteristica critica per i flussi di lavoro di sviluppo, prevenendo la contaminazione dei dati tra gli ambienti. Deno KV offre anche un binario denokv self-hosted per lo sviluppo locale e casi d'uso di produzione specifici, supportato da SQLite.
Confrontando questi: D1 offre familiarità SQL per i dati relazionali; Durable Objects forniscono calcolo con stato univoco per il coordinamento in tempo reale con una forte coerenza; e Deno KV offre un key-value store globalmente distribuito ad alte prestazioni. La scelta dipende dal modello dei dati e dai requisiti di coerenza. Per dati altamente relazionali, D1 è un forte contendente. Per scenari intensamente con stato e in tempo reale, Durable Objects eccellono. Per un accesso ai dati più semplice e senza schema su scala globale, Deno KV è una scelta efficiente.
Colmare il Divario: Connettività del Database con Hyperdrive e le Integrazioni di Deno
Connettere funzioni edge senza stato a database tradizionali, spesso centralizzati, è storicamente stato un collo di bottiglia delle prestazioni a causa dell'overhead di connessione e della latenza. Entrambe le piattaforme hanno introdotto funzionalità significative per mitigare questo problema.
Cloudflare Hyperdrive, generalmente disponibile da aprile 2024, è un punto di svolta per i Workers che interagiscono con i database PostgreSQL e MySQL esistenti. Agisce come un pooler di connessioni globalmente distribuito e un servizio di caching delle letture. Hyperdrive mira a far "sentire globali" i database regionali riducendo la latenza intrinseca della creazione di nuove connessioni al database. Ciò lo ottiene mantenendo pool di connessioni pre-riscaldati su tutta la rete di Cloudflare, posizionati in modo ottimale vicino al database di origine. Ciò elimina fino a sette round trip di rete (handshake TCP, negoziazione TLS, autenticazione del database) per ogni nuova connessione da un Worker.
Hyperdrive opera in modalità di pooling delle transazioni. Ciò significa che una connessione viene acquisita dal pool per la durata di una transazione e restituita al termine. Gli sviluppatori possono configurare la max_size del pool di connessioni tramite la dashboard di Cloudflare o la CLI wrangler, consentendo una messa a punto basata sulla capacità del database e sul carico dell'applicazione. In modo critico, Hyperdrive memorizza anche nella cache i risultati delle query di lettura eseguite frequentemente all'edge, riducendo ulteriormente la latenza e scaricando il carico dal database di origine.
Per esempio, binding Hyperdrive in wrangler.toml:
[[hyperdrive]]
binding = "DB"
id = "YOUR_HYPERDRIVE_ID"
E poi in un Worker, usando un client postgres standard:
import postgres from 'postgres';
interface Env {
HYPERDRIVE: Hyperdrive;
}
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const sql = postgres(env.HYPERDRIVE.connectionString);
try {
const result = await sql`SELECT NOW()`; // Example query
return Response.json(result);
} catch (e) {
return Response.json({ error: e.message }, { status: 500 });
}
},
};
L'aumento delle prestazioni da Hyperdrive è sostanziale. Nei miei test, una semplice query di lettura su un database PostgreSQL situato a centinaia di millisecondi di distanza ha mostrato una riduzione della latenza p99 di oltre il 50% tramite Hyperdrive, principalmente grazie al costo di configurazione della connessione ammortizzato e alle cache hit.
Le integrazioni del database di Deno Deploy offrono una filosofia diversa. Sebbene possa connettersi a istanze PostgreSQL esterne, Deno Deploy fornisce anche opzioni per fornire database PostgreSQL gestiti (ospitati da Prisma). Una caratteristica chiave qui è la creazione automatica di database logici isolati per ogni ambiente di distribuzione (produzione, rami Git, timeline di anteprima). Ciò significa che il codice dell'applicazione può rimanere coerente tra gli ambienti, con Deno Deploy che inietta automaticamente i dettagli di connessione corretti tramite variabili d'ambiente. Questo semplifica i flussi di lavoro di sviluppo e test in modo significativo, poiché gli sviluppatori non devono gestire manualmente istanze di database separate o credenziali per ogni ramo.
La funzionalità deno run --tunnel, introdotta come parte dei recenti miglioramenti della CLI, migliora ulteriormente questo. Consente alle applicazioni Deno locali di connettersi in modo sicuro a un'istanza di database di sviluppo ospitata e isolata su Deno Deploy, fornendo un'esperienza di sviluppo locale senza interruzioni con dati remoti.
Rispetto all'approccio "accelerare i database esistenti" di Hyperdrive, le integrazioni di Deno Deploy si orientano più verso "database gestito come parte della piattaforma" o "connessione senza soluzione di continuità a un'istanza dedicata per ambiente". Hyperdrive è ideale per le organizzazioni con database centralizzati grandi ed esistenti che desiderano esporli globalmente senza migrazione. Il modello di Deno Deploy è forse più semplice per i progetti greenfield o per coloro che si sentono a proprio agio con i servizi di database gestiti, in particolare per l'eccellente isolamento dell'ambiente.
Il Fronte dell'Inferenza AI: Cloudflare Workers AI
L'intersezione tra edge computing e intelligenza artificiale è probabilmente uno degli sviluppi più entusiasmanti recenti. La piattaforma AI di Cloudflare, e in particolare Workers AI, è emersa come un formidabile contendente per la distribuzione di inferenza AI a bassa latenza su larga scala. Annunciato a marzo 2025 come parte di "Cloudflare for AI", questa iniziativa sfrutta la rete globale di GPU di Cloudflare in oltre 190 città per eseguire inferenza serverless.
Workers AI consente agli sviluppatori di eseguire vari modelli AI - da LLM come Llama 3 e Gemma 3 a Whisper (speech-to-text) e modelli di classificazione delle immagini - direttamente all'edge, vicino agli utenti finali. Ciò riduce significativamente la latenza del round trip associata all'invio di richieste di inferenza a regioni cloud centralizzate. Proprio come l'ultima evoluzione dell'API di OpenAI, Cloudflare si concentra nel rendere le complesse interazioni del modello accessibili tramite semplici chiamate API.
Il Cloudflare AI Gateway, rilasciato a novembre 2024, completa Workers AI fornendo funzionalità critiche per la gestione e la protezione delle applicazioni AI. Ciò include dashboard di analisi per i modelli di utilizzo, bilanciamento del carico efficiente per garantire un funzionamento regolare durante il traffico elevato e robuste misure di sicurezza come il rilevamento della tossicità dei prompt e la prevenzione delle perdite di PII. L'AI Gateway si integra con strumenti come Llama Guard per consentire agli amministratori di impostare regole per interrompere i prompt dannosi, mantenendo l'integrità del modello.
Inoltre, l'Agents SDK consente agli sviluppatori di creare agenti intelligenti e guidati da obiettivi in grado di chiamare modelli, API e pianificare attività da un'API TypeScript unificata, progettata per essere eseguita in modo rapido e sicuro su Workers. Ad agosto 2025, Cloudflare ha anche introdotto AI Security Posture Management (AI-SPM) all'interno della sua piattaforma Zero Trust, offrendo funzionalità per scoprire, analizzare e controllare come l'AI generativa viene utilizzata all'interno di un'organizzazione, affrontando le preoccupazioni relative all'AI shadow.
Un semplice esempio di inferenza Workers AI:
// worker.ts
interface Env {
AI: Ai; // AI binding from wrangler.toml
}
export default {
async fetch(request: Request, env: Env) {
const text = await request.text();
const response = await env.AI.run("@cf/meta/llama-2-7b-chat-int8", {
prompt: `Translate the following English text to French: ${text}`,
});
return Response.json(response);
},
};
Questo dimostra l'API semplificata per l'interazione con i modelli pre-addestrati. L'implicazione pratica è che gli sviluppatori possono ora incorporare funzionalità AI direttamente nei flussi di lavoro edge, consentendo la personalizzazione in tempo reale, la moderazione dei contenuti o le risposte dinamiche senza la tipica complessità dell'infrastruttura o la penalità di latenza. Sebbene Deno Deploy possa eseguire modelli AI basati su JavaScript/TypeScript, attualmente manca dell'infrastruttura GPU dedicata e dei servizi specifici per l'AI integrati che Cloudflare Workers AI fornisce, rendendo Cloudflare il leader per l'inferenza AI a bassa latenza e su larga scala all'edge.
Edge Guidato dagli Eventi: Cloudflare Queues e Deno Cron
Oltre alle richieste HTTP sincrone, entrambe le piattaforme stanno rafforzando il loro supporto per i carichi di lavoro guidati dagli eventi e pianificati, cruciali per la creazione di sistemi distribuiti robusti.
Cloudflare Queues forniscono un sistema di messaggistica asincrono che si integra perfettamente con Workers e Durable Objects. Sebbene una data GA specifica non sia stata evidenziata nelle recenti comunicazioni, la sua maturità e integrazione sono evidenti nei recenti modelli architetturali. Ad esempio, ad aprile 2025, Cloudflare ha documentato come ha riprogettato il suo servizio "Super Slurper" utilizzando Workers, Durable Objects e Queues, ottenendo un miglioramento della velocità di 5 volte per i trasferimenti di dati. Le code consentono agli sviluppatori di disaccoppiare i servizi, gestire picchi di traffico e implementare un'elaborazione in background affidabile direttamente all'edge. La capacità per i Durable Objects di interagire con le Queues consente flussi di lavoro complessi e di lunga durata che possono estendersi su più invocazioni e gestire i guasti transitori con garanzia.
Considera uno scenario in cui un Worker elabora le immagini caricate dagli utenti. Invece di bloccare la risposta HTTP, il Worker può inviare un messaggio a una Queue contenente l'URL dell'immagine e l'ID utente. Un altro Worker, o un Durable Object, può quindi prelevare questo messaggio, eseguire l'elaborazione dell'immagine (ad esempio, ridimensionamento, filigrana) e archiviare il risultato, notificando l'utente in modo asincrono.
Deno Cron, annunciato a novembre 2023, è uno scheduler di attività cron native e senza configurazione integrato direttamente nel runtime Deno e gestito automaticamente da Deno Deploy. Consente agli sviluppatori di definire attività pianificate utilizzando la sintassi cron familiare, che Deno Deploy rileva e orchestra automaticamente. Queste attività cron vengono eseguite in isolate su richiesta, garantendo che le risorse vengano consumate solo quando l'attività viene eseguita. Deno Cron garantisce l'esecuzione almeno una volta e include i tentativi automatici di gestione in caso di eccezioni, fornendo un meccanismo affidabile per i processi in background.
Un esempio di Deno Cron in main.ts:
// main.ts
Deno.cron("Hourly Report", { hour: { every: 1 } }, async () => {
console.log("Generating hourly report...");
// Logic to fetch data, generate report, and store it
await generateAndStoreReport();
console.log("Hourly report generated.");
});
Deno.serve((_req) => new Response("Hello from Deno Deploy!"));
Questa semplicità è un vantaggio significativo. Rispetto a Cloudflare Workers, che in genere richiederebbe uno scheduler esterno (come un servizio cron dedicato o GitHub Actions) per attivare un Worker, Deno Cron fornisce una soluzione integrata e gestita dalla piattaforma.
Il confronto qui evidenzia filosofie architetturali diverse. Cloudflare Queues sono un primitivo potente per la creazione di sistemi reattivi guidati dagli eventi, consentendo un'orchestrazione complessa dei servizi. Deno Cron offre una soluzione diretta e orientata per la pianificazione basata sul tempo, semplificando un compito operativo comune per le funzioni edge.
WASM all'Edge: Espansione degli Orizzonti Linguistici
WebAssembly (WASM) continua a essere una pietra angolare per l'estensione delle capacità dei runtime edge oltre JavaScript e TypeScript, offrendo prestazioni quasi native per attività ad alta intensità di calcolo.
Cloudflare Workers hanno una storia forte e in continua evoluzione per WASM. Supportano la compilazione di linguaggi come Rust, Go e C/C++ in WASM, consentendo agli sviluppatori di sfruttare le codebase esistenti o di scrivere sezioni critiche per le prestazioni nel loro linguaggio preferito. Il progetto workers-rs, ad esempio, fornisce un SDK Rust robusto per la scrittura di interi Workers in Rust, la compilazione in WASM e l'interazione con le API JavaScript di Workers tramite binding. Ciò consente agli sviluppatori di creare Workers altamente ottimizzati in grado di gestire milioni di richieste al secondo.
Uno sviluppo chiave, sebbene sperimentale, è il supporto per WebAssembly System Interface (WASI) su Cloudflare Workers. WASI mira a standardizzare un'interfaccia di sistema per i moduli WASM, consentendo loro di interagire con gli ambienti host (come il file system, i socket di rete) in modo portatile e sicuro. Sebbene il supporto WASI sia ancora in evoluzione e solo alcune chiamate di sistema siano implementate, segnala un futuro in cui applicazioni più complesse, tradizionalmente vincolate ad ambienti simili a POSIX, possono essere eseguite in modo efficiente e sicuro all'edge.
Inoltre, ad aprile 2025, Cloudflare ha annunciato che i container stanno arrivando su Cloudflare Workers, con una beta aperta prevista per la fine di giugno 2025. Ciò consentirà l'esecuzione di codice generato dall'utente in qualsiasi linguaggio che possa essere impacchettato in un container, inclusi gli strumenti CLI, e supporterà una memoria più ampia o più core della CPU. Questi container sono profondamente integrati con Workers e basati su Durable Objects, consentendo ai Workers di fungere da gateway API, mesh di servizi o orchestratori per questi carichi di lavoro containerizzati. Questa è un'espansione significativa, che colma il divario tra i Workers leggeri e le applicazioni più intensive di risorse e indipendenti dal linguaggio all'edge.
Il runtime Deno supporta intrinsecamente WebAssembly, dato la sua architettura moderna e l'attenzione agli standard Web. Gli sviluppatori possono compilare Rust, Go o altri linguaggi in WASM ed eseguirli all'interno delle funzioni Deno Deploy. Sebbene i risultati della ricerca non abbiano dettagliato molti miglioramenti specifici alla storia WASM di Deno Deploy come Cloudflare, le capacità sottostanti di Deno significano che è una piattaforma perfettamente valida per i carichi di lavoro WASM.
Confrontando i due, la profonda integrazione di Cloudflare Workers di lunga data con WASM, unita al suo supporto sperimentale WASI e ai prossimi Container su Workers, dimostra una strategia più aggressiva e completa per il calcolo multi-linguaggio e ad alte prestazioni all'edge. Deno offre una solida base, ma Cloudflare sembra spingere i confini più avanti in quest'area.
Esperienza Sviluppatore e Strumenti: wrangler vs. deno deploy
Il successo di una piattaforma dipende in modo significativo dalla sua esperienza sviluppatore (DX) e dai suoi strumenti. Sia Cloudflare che Deno hanno fatto investimenti sostanziali qui.
La CLI wrangler di Cloudflare rimane l'interfaccia principale per lo sviluppo, il test e la distribuzione di Workers. I recenti aggiornamenti si sono concentrati su stabilità, prestazioni e una migliore parità di sviluppo locale con il runtime workerd. wrangler si integra perfettamente con il diverso ecosistema di Cloudflare, dalla configurazione dei binding D1 e Hyperdrive alla gestione di Durable Objects e distribuzioni della piattaforma AI. L'app GitHub di Cloudflare ha ricevuto autorizzazioni aggiornate alla fine del 2024 per abilitare funzionalità come la creazione automatica di repository e la distribuzione di modelli, semplificando l'onboarding e la configurazione CI/CD.
Lo sviluppo locale con wrangler dev fornisce il ricaricamento a caldo dei moduli e spesso sembra identico alla produzione, grazie alla codebase condivisa di workerd. Il debug, sebbene richieda ancora una certa familiarità con i protocolli dell'ispettore V8, ha visto miglioramenti incrementali. La disponibilità di @cloudflare/vitest-pool-workers (dicembre 2025) per il test di Durable Objects, incluso lo storage SQLite e gli allarmi, consolida ulteriormente la storia del test locale.
La CLI e la dashboard di Deno Deploy sono state anch'esse sottoposte a revisioni significative. Un punto culminante importante da ottobre 2025 è il sistema CI/CD integrato migliorato, che ora offre un ambiente di build ottimizzato e ad alte prestazioni direttamente all'interno di Deno Deploy. Ciò significa che gli sviluppatori possono connettere un repository GitHub e Deno Deploy gestisce le build, le distribuzioni di ramo, le build di anteprima e i rollback, eliminando la necessità di pipeline CI/CD esterne per molti scenari comuni. Questa è una caratteristica cruciale che porta la DX di Deno Deploy al livello di altre piattaforme di hosting mature.
A dicembre 2025, Deno Deploy ha acquisito la capacità di rilevare le configurazioni di workspace/monorepo Deno e npm, consentendo la distribuzione di applicazioni situate nelle sottodirectory di un repository più grande. Questo è un enorme miglioramento per i progetti e le organizzazioni più grandi. La funzionalità deno run --tunnel, menzionata in precedenza, fornisce un modo sicuro per esporre le applicazioni Deno in esecuzione localmente a un dominio pubblico, prezioso per il test di webhook o la condivisione di lavori in corso.
Un'altra caratteristica innovativa sono i Playgrounds di Deno Deploy, che, a partire da giugno 2025, supportano più file e includono passaggi di build, offrendo un editor di codice in-browser con distribuzione e anteprima immediate. Questo abbassa la
Fonti
🛠️ Strumenti Correlati
Esplora questi strumenti DataFormatHub correlati a questo argomento:
- JSON Formatter - Formatta wrangler.toml
- Base64 Encoder - Codifica i payload edge
