- First seen
- Apr 17
- Last seen
- May 11
- Days running
- 24
- Spend tier
- $1.7/day
- CTA
- Scopri di più
Il progresso non può essere un'arma
Etica Sgr@etica
Etica Sgr e Stop Killer Robots lanciano un appello sui sistemi d'arma autonomi
Above median longevity in network
Seen in
Landing page
Landing page intelligence
eticasgr.com
Host
eticasgr.com
Path
/storie/approfondimenti/stop-killer-robots
Full URL
https://www.eticasgr.com/storie/approfondimenti/stop-killer-robots
Redirect chain
1 hop- finaleticasgr.com
Landing page snapshot

Captured 2026-05-13
Tracking parameters
No query string on this URL.
Tracking setup · Taboola
Taboola passes site, site_id, campaign_id, campaign_item_id and click-id by default. Map those to your tracker's source/sub1-4 fields. Use {click_id} as your unique click identifier when posting back conversions.
?site={site}&site_id={site_id}&campaign_id={campaign_id}&campaign_item_id={campaign_item_id}&click-id={click_id}Default Taboola setup template: ?site={site}&site_id={site_id}&campaign_id={campaign_id}&campaign_item_id={campaign_item_id}&click-id={click_id}
Landing page text
Show landing page text
Visible text extracted from the advertiser's landing page · last fetched 2026-05-12
▶
Landing page text
Show landing page text
Visible text extracted from the advertiser's landing page · last fetched 2026-05-12
Stop Killer Robots, il progresso non può essere un’arma - Etica Sgr Etica Sgr Indietro ' class="vertical menu drilldown" id="primary-menu"> Chi siamo Investimento responsabile Selezione dei titoli Rischio ESG Stewardship Impatto ESG CSR e Bilanci Profilo istituzionale Ci presentiamo Governance e policy Network Premi e Riconoscimenti Ufficio stampa Informativa sulla sostenibilità Fondi e soluzioni Soluzioni per privati Fondi etici Dove sottoscrivere Come investire in fondi etici Valori quota e rendimenti Documenti Soluzioni per istituzionali Gamma lussemburghese Fondi etici – classe I Quote e rendimenti – classe I Documentazione dei fondi – classe I Articoli per investitori istituzionali Storie Tutte le storie Approfondimenti News ed eventi Voto in assemblea Campagne internazionali Temi Ambiente Sociale e governance Finanza responsabile Stewardship Finanza a impatto Rendimenti Documenti Chi siamo Le nostre competenze Investimento responsabile Selezione dei titoli Rischio ESG Stewardship Impatto ESG CSR e Bilanci Etica Sgr Profilo istituzionale Ci presentiamo Governance e policy Network Premi e Riconoscimenti Ufficio stampa Informativa sulla sostenibilità Fondi e soluzioni Clienti privati Soluzioni per privati Fondi etici Dove sottoscrivere Come investire in fondi etici Valori quota e rendimenti Documenti Clienti istituzionali Soluzioni per istituzionali Gamma lussemburghese Fondi etici – classe I Quote e rendimenti – classe I Documentazione dei fondi – classe I Articoli per investitori istituzionali Storie Tutte le storie Approfondimenti News ed eventi Voto in assemblea Campagne internazionali Temi Ambiente Sociale e governance Finanza responsabile Stewardship Finanza a impatto Rendimenti Documenti it en es my etica Stop Killer Robots, il progresso non può essere un’arma Home Approfondimenti Stop Killer Robots, il progresso non può essere un’arma 23 Settembre 2025 Condividi questo contenuto Etica Sgr , in collaborazione con la coalizione internazionale Stop Killer Robots , lancia un appello urgente alla comunità degli investitori: è necessario promuovere una regolamentazione internazionale sui sistemi d’arma autonomi , tecnologie in grado di identificare e colpire persone senza un controllo umano diretto. La rapida evoluzione dell’intelligenza artificiale in ambito militare sta aprendo scenari che sollevano interrogativi profondi e trasversali. Per Etica Sgr, impegnata nella promozione di un’economia responsabile e sostenibile, comprendere la natura e le gravi implicazioni delle armi autonome significa interrogarsi sui valori che vogliamo difendere, sui criteri che verrebbero posti alla base di innovazione e sicurezza, e sul futuro che stiamo contribuendo a costruire. La riflessione su questi temi riguarda l’ intera società ed è importante alimentare il dibattito per promuovere consapevolezza, affinché l’intelligenza artificiale resti uno strumento al servizio dell’umanità, e non la metta a rischio . Inoltre, in ambito finanziario, una regolamentazione internazionale svolge un ruolo cruciale nella riduzione dell’incertezza e nella mitigazione dei rischi . Ciò costituisce un presupposto fondamentale per gli investitori orientati al lungo periodo, in particolare quando le decisioni di allocazione del capitale sono guidate da principi di sostenibilità ambientale e sociale. Cosa sono i sistemi d’arma autonomi I sistemi d’arma letali autonomi (Autonomous Weapon Systems – AWS) sono armi caratterizzate da autonomia operativa, in grado di funzionare senza l’intervento diretto dell’essere umano. La loro autonomia è resa possibile dall’uso combinato di sensori, sistemi di riconoscimento visivo, algoritmi e intelligenza artificiale (IA) avanzata. In assenza di una definizione normativa precisa, si ricorre frequentemente a una classificazione delle armi autonome basata sul livello di controllo umano nel ciclo decisionale: Human-in-the-loop : ogni decisione richiede l’approvazione di un operatore umano Human-on-the-loop: la macchina opera in autonomia, ma sotto supervisione umana limitata , con possibilità di intervento solo in tempi molto ristretti. Human-out-of-the-loop: il sistema agisce in completa autonomia, senza alcun controllo umano diretto nel momento dell’ingaggio. È questa la configurazione più strettamente associata ai cosiddetti “killer robots” . L’impiego di queste armi, ormai, non è confinato alla sperimentazione, ma è già realtà in missioni operative. Eppure, a livello globale manca ancora una definizione giuridica condivisa di sistema d’arma autonomo . Perché riflettere sul tema Per comprendere appieno il significato e la portata dell’impiego di armi autonome, è necessario analizzarne le principali implicazioni sotto il profilo giuridico, tecnico, etico e strategico. Problemi giuridici : Violano il diritto internazionale umanitario, in riferimento ai principi cardine di distinzione (è necessario saper distinguere, ad esempio, tra civili e militari) e proporzionalità (occorre sapere valutare i danni collaterali di un attacco), creando vuoti di responsabilità Problemi tecnici : anche i sistemi più evoluti sono soggetti a errori (che possono aumentare in scenari complessi), vulnerabilità informatiche e imprevedibilità operativa. Questioni etiche : delegare a una macchina decisioni sull’uso della forza rende le persone oggetti, data point, insieme di coordinate, violando la dignità umana Implicazioni strategiche : la tecnologia rischia di diventare un fattore incentivante dei conflitti , provocando escalation e corse agli armamenti Il ruolo delle armi autonome nel contesto geopolitico attuale Tutto ciò avviene in un contesto globale segnato da una nuova fase di riarmo tecnologico . Il SIPRI Yearbook 2025 segnala l’inizio di un’escalation multipolare che coinvolge Stati Uniti, Russia, Cina e potenze regionali come India, Pakistan e Israele. Le tensioni internazionali – dai conflitti in Ucraina e Gaza alla guerra tra Iran e Israele – stanno accelerando l’impiego di tecnologie belliche emergenti: droni, robot, laser e sistemi AI-integrati. Secondo le stime, il mercato globale delle tecnologie militari avanzate ha raggiunto un valore di 22,17 miliardi di dollari nel 2025 , con previsioni di crescita fino a 38,10 miliardi entro il 2034 ( Precedence Research, 2024 ). Negli Stati Uniti, il portafoglio del Dipartimento della Difesa comprende 800 progetti legati all’IA militare (Fonte: Centre for Internation Governance Innovation, 2024 ), mentre gli esperti del Future of Life Institute hanno tracciato circa 200 sistemi d’arma autonomi già utilizzati in scenari reali in Ucraina, Medio Oriente e Africa ( Fonte: Reuters, 2025 ). Opinione pubblica e prospettive normative Il confronto sui sistemi d’arma autonomi coinvolge sempre più direttamente la società civile. Secondo un’indagine Ipsos (2021) condotta in 28 Paesi, il 61% degli intervistati si è dichiarato contrario al loro utilizzo. In Italia, il dissenso è ancora più marcato : il 74% della popolazione si oppone al loro utilizzo, ponendo attenzione ai rischi concreti, anche tecnico-operativi, legati all’uso di queste tecnologie (Fonte: Archivio Disarmo, 2025). Questa crescente attenzione pubblica ha contribuito a rafforzare il dibattito a livello istituzionale: nel 2024, è stata approvata la seconda Risoluzione ONU 79/L.77 , che istituisce un forum multilaterale di consultazione sotto l’egida dell’Assemblea Generale delle Nazioni Unite, aprendo la strada al possibile avvio di negoziati per un trattato giuridicamente vincolante entro il 2026 . Si tratta di un passo significativo, che riconosce l’urgenza di regolamentare l’uso dell’intelligenza artificiale in ambito militare, colmando il divario esistente tra il rapido sviluppo tecnologico e la lentezza dell’evoluzione normativa . La campagna Stop Killer Robots e l’Investor Statement La spinta per una nuova norma internazionale nasce anche dalla spinta della società civile. La Campagna Stop Killer Robots – una coalizione globale in costante espansion…
Text scraped from the landing page for research purposes. © respective owners. This text is sourced from the advertiser's public landing page; for removal, contact dmca@luba.media.