Skip to main content
mediabuyer
Saved
Etica Sgr native ad: Il progresso non può essere un'arma · Taboola · IT
via mediabuyer
First seen
Apr 17
Last seen
May 11
Days running
24
Spend tier
$1.7/day
CTA
Scopri di più
TaboolaIT24d$
Wrong category? Suggest:

Il progresso non può essere un'arma

Etica Sgr@etica

Etica Sgr e Stop Killer Robots lanciano un appello sui sistemi d'arma autonomi

Longevity24d / 30d

Above median longevity in network

Landing page

Visit page

Landing page intelligence

eticasgr.com

Host

eticasgr.com

Path

/storie/approfondimenti/stop-killer-robots

Full URL

https://www.eticasgr.com/storie/approfondimenti/stop-killer-robots

Redirect chain

1 hop
  1. finaleticasgr.com

Landing page snapshot

Landing page screenshot

Captured 2026-05-13

Tracking parameters

No query string on this URL.

Tracking setup · Taboola

Taboola passes site, site_id, campaign_id, campaign_item_id and click-id by default. Map those to your tracker's source/sub1-4 fields. Use {click_id} as your unique click identifier when posting back conversions.

?site={site}&site_id={site_id}&campaign_id={campaign_id}&campaign_item_id={campaign_item_id}&click-id={click_id}

Default Taboola setup template: ?site={site}&site_id={site_id}&campaign_id={campaign_id}&campaign_item_id={campaign_item_id}&click-id={click_id}

Landing page text

Show landing page text

Visible text extracted from the advertiser's landing page · last fetched 2026-05-12

Stop Killer Robots, il progresso non può essere un’arma - Etica Sgr
Etica Sgr
Indietro
' class="vertical menu drilldown" id="primary-menu">
Chi siamo
Investimento responsabile
Selezione dei titoli
Rischio ESG
Stewardship
Impatto ESG
CSR e Bilanci
Profilo istituzionale
Ci presentiamo
Governance e policy
Network
Premi e Riconoscimenti
Ufficio stampa
Informativa sulla sostenibilità
Fondi e soluzioni
Soluzioni per privati
Fondi etici
Dove sottoscrivere
Come investire in fondi etici
Valori quota e rendimenti
Documenti
Soluzioni per istituzionali
Gamma lussemburghese
Fondi etici – classe I
Quote e rendimenti – classe I
Documentazione dei fondi – classe I
Articoli per investitori istituzionali
Storie
Tutte le storie
Approfondimenti
News ed eventi
Voto in assemblea
Campagne internazionali
Temi
Ambiente
Sociale e governance
Finanza responsabile
Stewardship
Finanza a impatto
Rendimenti
Documenti
Chi siamo
Le nostre competenze
Investimento responsabile
Selezione dei titoli
Rischio ESG
Stewardship
Impatto ESG
CSR e Bilanci
Etica Sgr
Profilo istituzionale
Ci presentiamo
Governance e policy
Network
Premi e Riconoscimenti
Ufficio stampa
Informativa sulla sostenibilità
Fondi e soluzioni
Clienti privati
Soluzioni per privati
Fondi etici
Dove sottoscrivere
Come investire in fondi etici
Valori quota e rendimenti
Documenti
Clienti istituzionali
Soluzioni per istituzionali
Gamma lussemburghese
Fondi etici – classe I
Quote e rendimenti – classe I
Documentazione dei fondi – classe I
Articoli per investitori istituzionali
Storie
Tutte le storie
Approfondimenti
News ed eventi
Voto in assemblea
Campagne internazionali
Temi
Ambiente
Sociale e governance
Finanza responsabile
Stewardship
Finanza a impatto
Rendimenti
Documenti
it
en
es
my etica
Stop Killer Robots, il progresso non può essere un’arma
Home Approfondimenti Stop Killer Robots, il progresso non può essere un’arma
23 Settembre 2025
Condividi questo contenuto
Etica Sgr , in collaborazione con la coalizione internazionale Stop Killer Robots , lancia un appello urgente alla comunità degli investitori: è necessario promuovere una regolamentazione internazionale sui sistemi d’arma autonomi , tecnologie in grado di identificare e colpire persone senza un controllo umano diretto.
La rapida evoluzione dell’intelligenza artificiale in ambito militare sta aprendo scenari che sollevano interrogativi profondi e trasversali. Per Etica Sgr, impegnata nella promozione di un’economia responsabile e sostenibile, comprendere la natura e le gravi implicazioni delle armi autonome significa interrogarsi sui valori che vogliamo difendere, sui criteri che verrebbero posti alla base di innovazione e sicurezza, e sul futuro che stiamo contribuendo a costruire.
La riflessione su questi temi riguarda l’ intera società ed è importante alimentare il dibattito per promuovere consapevolezza, affinché l’intelligenza artificiale resti uno strumento al servizio dell’umanità, e non la metta a rischio .
Inoltre, in ambito finanziario, una regolamentazione internazionale svolge un ruolo cruciale nella riduzione dell’incertezza e nella mitigazione dei rischi . Ciò costituisce un presupposto fondamentale per gli investitori orientati al lungo periodo, in particolare quando le decisioni di allocazione del capitale sono guidate da principi di sostenibilità ambientale e sociale.
Cosa sono i sistemi d’arma autonomi
I sistemi d’arma letali autonomi (Autonomous Weapon Systems – AWS) sono armi caratterizzate da autonomia operativa, in grado di funzionare senza l’intervento diretto dell’essere umano. La loro autonomia è resa possibile dall’uso combinato di sensori, sistemi di riconoscimento visivo, algoritmi e intelligenza artificiale (IA) avanzata.
In assenza di una definizione normativa precisa, si ricorre frequentemente a una classificazione delle armi autonome basata sul livello di controllo umano nel ciclo decisionale:
Human-in-the-loop : ogni decisione richiede l’approvazione di un operatore umano
Human-on-the-loop: la macchina opera in autonomia, ma sotto supervisione umana limitata , con possibilità di intervento solo in tempi molto ristretti.
Human-out-of-the-loop: il sistema agisce in completa autonomia, senza alcun controllo umano diretto nel momento dell’ingaggio. È questa la configurazione più strettamente associata ai cosiddetti “killer robots” .
L’impiego di queste armi, ormai, non è confinato alla sperimentazione, ma è già realtà in missioni operative. Eppure, a livello globale manca ancora una definizione giuridica condivisa di sistema d’arma autonomo .
Perché riflettere sul tema
Per comprendere appieno il significato e la portata dell’impiego di armi autonome, è necessario analizzarne le principali implicazioni sotto il profilo giuridico, tecnico, etico e strategico.
Problemi giuridici : Violano il diritto internazionale umanitario, in riferimento ai principi cardine di distinzione (è necessario saper distinguere, ad esempio, tra civili e militari) e proporzionalità (occorre sapere valutare i danni collaterali di un attacco), creando vuoti di responsabilità
Problemi tecnici : anche i sistemi più evoluti sono soggetti a errori (che possono aumentare in scenari complessi), vulnerabilità informatiche e imprevedibilità operativa.
Questioni etiche : delegare a una macchina decisioni sull’uso della forza rende le persone oggetti, data point, insieme di coordinate, violando la dignità umana
Implicazioni strategiche : la tecnologia rischia di diventare un fattore incentivante dei conflitti , provocando escalation e corse agli armamenti
Il ruolo delle armi autonome nel contesto geopolitico attuale
Tutto ciò avviene in un contesto globale segnato da una  nuova fase di riarmo tecnologico . Il  SIPRI Yearbook 2025  segnala l’inizio di un’escalation multipolare che coinvolge Stati Uniti, Russia, Cina e potenze regionali come India, Pakistan e Israele. Le tensioni internazionali – dai conflitti in Ucraina e Gaza alla guerra tra Iran e Israele – stanno accelerando l’impiego di tecnologie belliche emergenti: droni, robot, laser e sistemi AI-integrati.
Secondo le stime, il mercato globale delle tecnologie militari avanzate ha raggiunto un valore di  22,17 miliardi di dollari nel 2025 , con previsioni di crescita fino a  38,10 miliardi entro il 2034  ( Precedence Research, 2024 ). Negli Stati Uniti, il portafoglio del Dipartimento della Difesa comprende  800 progetti legati all’IA militare  (Fonte:  Centre for Internation Governance Innovation, 2024 ), mentre gli esperti del Future of Life Institute hanno tracciato circa  200 sistemi d’arma autonomi  già utilizzati in scenari reali in Ucraina, Medio Oriente e Africa ( Fonte: Reuters, 2025 ).
Opinione pubblica e prospettive normative
Il confronto sui sistemi d’arma autonomi coinvolge sempre più direttamente la società civile. Secondo un’indagine Ipsos (2021) condotta in 28 Paesi, il 61% degli intervistati si è dichiarato contrario al loro utilizzo. In Italia, il dissenso è ancora più marcato : il 74% della popolazione si oppone al loro utilizzo, ponendo attenzione ai rischi concreti, anche tecnico-operativi, legati all’uso di queste tecnologie (Fonte: Archivio Disarmo, 2025).
Questa crescente attenzione pubblica ha contribuito a rafforzare il dibattito a livello istituzionale: nel 2024, è stata approvata la seconda Risoluzione ONU 79/L.77 , che istituisce un forum multilaterale di consultazione sotto l’egida dell’Assemblea Generale delle Nazioni Unite, aprendo la strada al possibile avvio di negoziati per un trattato giuridicamente vincolante entro il 2026 .
Si tratta di un passo significativo, che riconosce l’urgenza di regolamentare l’uso dell’intelligenza artificiale in ambito militare, colmando il divario esistente tra il rapido sviluppo tecnologico e la lentezza dell’evoluzione normativa .
La campagna Stop Killer Robots e l’Investor Statement
La spinta per una nuova norma internazionale nasce anche dalla spinta della società civile. La Campagna Stop Killer Robots – una coalizione globale in costante espansion…
8,001 chars

Text scraped from the landing page for research purposes. © respective owners. This text is sourced from the advertiser's public landing page; for removal, contact dmca@luba.media.

More from Etica Sgr