LLMs Coming for a DNA Sequence Near You
While tools like CRISPR have blown the field of genome hacking wide open, being able to predict what will happen when you tinker with the code underlying the living things on our planet is still tricky. Researchers at Stanford hope their new Evo 2 DNA generative AI tool can help.
Trained on a dataset of over 100,000 organisms from bacteria to humans, the system can quickly determine what mutations contribute to certain diseases and what mutations are mostly harmless. An “area we are hopeful about is using Evo 2 for designing new genetic sequences with specific functions of interest.”
To that end, the system can also generate gene sequences from a starting prompt like any other LLM as well as cross-reference the results to see if the sequence already occurs in nature to aid in predicting what the sequence might do in real life. These synthetic sequences can then be made using CRISPR or similar techniques in the lab for testing. While the prospect of building our own Moya is exciting, we do wonder what possible negative consequences could come from this technology, despite the hand-wavy mention of not training the model on viruses to “to prevent Evo 2 from being used to create new or more dangerous diseases.”
We’ve got you covered if you need to get your own biohacking space setup for DNA gels or if you want to find out more about powering living computers using electricity. If you’re more curious about other interesting uses for machine learning, how about a dolphin translator or discovering better battery materials?
3D Printing A Useful Fixturing Tool
When you start building lots of something, you’ll know the value of accurate fixturing. [Chris Borge] learned this the hard way on a recent mass-production project, and decided to solve the problem. How? With a custom fixturing tool! A 3D printed one, of course.
Chris’s build is simple enough. He created 3D-printed workplates covered in a grid of specially-shaped apertures, each of which can hold a single bolt. Plastic fixtures can then be slotted into the grid, and fastened in place with nuts that thread onto the bolts inserted in the base. [Chris] can 3D print all kinds of different plastic fixtures to mount on to the grid, so it’s an incredibly flexible system.
3D printing fixtures might not sound the stoutest way to go, but it’s perfectly cromulent for some tasks. Indeed, for [Chris]’s use case of laser cutting, the 3D printed fixtures are more than strong enough, since the forces involved are minimal. Furthermore, [Chris] aided the stability of the 3D-printed workplate by mounting it on a laser-cut wooden frame filled with concrete. How’s that for completeness?
We’ve seen some other great fixturing tools before, too. Video after the break.
youtube.com/embed/ALLCF9Jl94Y?…
Onkyo Receiver Saved With An ESP32
[Bill Dudley] had a problem. He had an Onkyo AV receiver that did a great job… until it didn’t. A DSP inside failed. When that happened, the main microprocessor running the show decided it wouldn’t play ball without the DSP operational. [Bill] knew the bulk of the audio hardware was still good, it was just the brains that were faulty. Thus started a 4-month operation to resurrect the Onkyo receiver with new intelligence instead.
[Bill’s] concept was simple. Yank the dead DSP, and the useless microprocessor as well. In their place, an ESP32 would be tasked with running things. [Bill] no longer cared if the receiver had DSP abilities or even the ability to pass video—he just wanted to use it as the quality audio receiver that it was.
His project report steps through all the hard work he went through to get things operational again. He had to teach the ESP32 to talk to the front panel display, the keys, and the radio tuner. More challenging was the core audio processor—the obscure Renaisys R2A15218FP. However, by persevering, [Bill] was able to get everything up and running, and even added some new functionality—including Internet radio and Bluetooth streaming.
It’s a heck of a build, and [Bill] ended up with an even more functional audio receiver at the end of it all. Bravo, we say. We love to see older audio gear brought back to life, particularly in creative ways. Meanwhile, if you’ve found your own way to save a piece of vintage audio hardware, don’t hesitate to let us know!
DolphinGemma Seeks to Speak to Dolphins
Most people have wished for the ability to talk to other animals at some point, until they realized their cat would mostly insult them and ask for better service, but researchers are getting closer to a dolphin translator.
DolphinGemma is an upcoming LLM based on the recordings from the Wild Dolphin Project. Using the hours and hours of dolphin sounds recorded by researchers over the decades, the hope is that the LLM will allow us to communicate more effectively with the second most intelligent species on the planet.
The LLM is designed to run in the field on Google Pixel phones, due to it being based on Google’s in-house Gemini product, which is a bit less cumbersome than hauling a mainframe on a dive. The Wild Dolphin Project currently uses the Georgia Tech developed CHAT (Cetacean Hearing Augmentation Telemetry) device which has a Pixel 6 at its heart, but the newer system will be bumped up to a Pixel 9 to take advantage of all those shiny new AI processing advances. Hopefully, we’ll have a better chance of catching when they say, “So long and thanks for all the fish.”
If you’re curious about other mysterious languages being deciphered by LLMs, we have you covered.
youtube.com/embed/T8GdEVVvXyE?…
Simone 🤖 & Bruno 🐕 reshared this.
securityaffairs.com/176937/dat…
#securityaffairs #hacking
Yale New Haven Health (YNHHS) data breach impacted 5.5 million patients
Yale New Haven Health (YNHHS) announced that threat actors stole the personal data of 5.5 million patients in a cyberattack.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
Le Action Figure della Cyber Security. Red Hot Cyber lancia la serie “Chiama Ammiocuggino!”
In un mondo dove ogni giorno si registrano migliaia di attacchi informatici, molte aziende continuano a sottovalutare l’importanza della cybersecurity, affidandosi a “sedicenti esperti” improvvisati o poco competenti. Da questa triste realtà nasce la nuova serie satirica di Red Hot Cyber: Amiocuggino – le action figure della cyber security.
Una provocazione, certo.
Ma anche uno specchio fedele di ciò che troppo spesso accade nel panorama aziendale italiano e non solo: ci si affida a persone prive di reali competenze, con la convinzione che “tanto basta saper smanettare” oppure “che vuoi che accada a noi?”. Il risultato? Sistemi vulnerabili, dati esposti, e un falso senso di protezione.
Quando il risparmio diventa un costo enorme
La verità è semplice: nella cybersecurity, il risparmio può diventare il tuo peggior investimento.
Le conseguenze di un data breach non sono molto economiche. Le perdite reputazionali possono devastare l’immagine di un’azienda, minare la fiducia di clienti e partner, e compromettere anni di lavoro.
E se l’attacco è di tipo ransomware, il danno può diventare esponenziale: intere filiere produttive si bloccano, la produzione si arresta, gli ordini non vengono evasi, e ogni giorno fermo si traduce in migliaia – se non milioni – di euro persi.
Tutto per non aver investito in modo serio in prevenzione, monitoraggio e risposta.
La cybersecurity oggi, non è un optional
Investire in cybersecurity oggi non è un fattore accessorio, ma è un valore abilitante per il tuo business.
È la base su cui costruire continuità operativa, innovazione e fiducia digitale. Senza di essa, qualsiasi trasformazione digitale rischia di essere una bomba a orologeria pronta a esplodere.
La serie Amiocuggino vuole proprio colpire con ironia il cuore del problema: ridicolizzare l’approccio superficiale per stimolare una presa di coscienza. Non basta un “cuggino che ci capisce di computer” per difendere un’azienda dalle minacce complesse, servono persone esperte.
Conclusione
Purtroppo la chiave è che la cybersecurity deve divenire una cultura e non un obbligo.
Non può essere trattata come una scocciatura normativa o una casella da spuntare per adeguarsi al GDPR. Deve diventare parte integrante del pensiero strategico di ogni organizzazione. Come la sicurezza sul lavoro o la qualità dei prodotti, anche la sicurezza digitale richiede attenzione quotidiana, aggiornamento continuo e consapevolezza diffusa a tutti i livelli aziendali.
Solo se siamo consapevoli dei rischi, possiamo essere davvero resilienti agli attacchi informatici. Solo comprendendo le dinamiche delle minacce, l’evoluzione degli attacchi e i punti deboli della nostra infrastruttura, possiamo costruire processi difensivi solidi, flessibili e adattabili. La sicurezza non è un obiettivo da raggiungere una volta per tutte: è un percorso e mai una destinazione.
Perché in fondo, se lasci la sicurezza del tuo business in mano ad Amiocuggino… sai già come andrà a finire.
Certo, gli attacchi informatici avvengono a tutti. È una realtà con cui ogni organizzazione deve fare i conti. Ma non confondiamo il fatto che “tanto succederà, occorre solo capire quando” con l’atteggiamento pericoloso del “non faccio nulla, tanto fai o non fai è la stessa cosa”.
Questa è una trappola mentale che spinge molte aziende all’inazione, a rimandare, a minimizzare. E proprio lì, in quel vuoto di responsabilità, si insinuano le minacce. La differenza tra un’azienda che subisce un attacco e si rialza in fretta, e una che crolla sotto il peso delle conseguenze, sta nella preparazione, nella formazione e nella cultura.
Investire in cybersecurity non serve ad evitare ogni incidente, ma a limitare l’impatto, a reagire con lucidità, a garantire continuità e fiducia. È una scelta strategica, non un costo. È la base per costruire aziende resilienti, capaci di affrontare l’innovazione digitale senza paura, ma con consapevolezza.
Perché oggi, non è più una questione di “se verrai attaccato”, ma di quanto sarai pronto quando accadrà. E lì, credimi, Amiocuggino non ti salverà.
L'articolo Le Action Figure della Cyber Security. Red Hot Cyber lancia la serie “Chiama Ammiocuggino!” proviene da il blog della sicurezza informatica.
Le Action Figure della Cyber Security. Red Hot Cyber lancia la serie “Chiama Ammiocuggino!”
📌 Link all'articolo : redhotcyber.com/post/le-action…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
Le Action Figure della Cyber Security. Red Hot Cyber lancia la serie "Chiama Ammiocuggino!"
Red Hot Cyber lancia la serie satirica "Amiocuggino" per denunciare l'incompetenza in cybersecurity. Investire in sicurezza è vitale per ogni business.Massimiliano Brolli (Red Hot Cyber)
reshared this
Firewall Sonicwall a rischio: un nuovo bug di sicurezza permette il blocco da remoto
Esiste una falla di sicurezza nella SSLVPN del sistema operativo firewall di Sonicwall, SonicOS. Gli aggressori possono causare il crash del firewall e quindi provocare un denial of service. Sonicwall sta fornendo aggiornamenti per risolvere la vulnerabilità.
Sonicwall ha pubblicato un bollettino di sicurezza in cui l’azienda avverte della vulnerabilità. Nell’interfaccia “Virtual Office” di SonicOS SSLVPN, in circostanze non specificate può verificarsi un cosiddetto “null pointer dereference”, ovvero il codice può tentare di rilasciare nuovamente risorse già rilasciate.
Nel bollettino SonicWall riporta che “Una vulnerabilità di dereferenziazione del puntatore nullo nell’interfaccia di SSLVPN di SonicOS consente a un aggressore remoto e non autenticato di bloccare il firewall, causando potenzialmente una condizione di negazione del servizio (DoS).”
Questo di solito porta al crash del software, come in questo caso, e fortunatamente non può essere utilizzato impropriamente per iniettare ed eseguire codice dannoso. Gli aggressori possono causare questo dalla rete senza autenticazione preventiva, come spiega Sonicwall nella descrizione della vulnerabilità (CVE-2025-32818, CVSS 7.5 , rischio ” alto “).
La vulnerabilità migliora le versioni aggiornate del firmware per i dispositivi interessati della serie Gen7 NSv, in particolare NSv 270, NSv 470, NSv 870, nonché per i firewall Gen7 TZ270, TZ270W, TZ370, TZ370W, TZ470, TZ470W, TZ570, TZ570W, TZ570P, TZ670, NSa 2700, NSa 3700, NSa 4700, NSa 5700, NSa 6700, NSsp 10700, NSsp 11700, NSsp 13700 e NSsp 15700 nella versione 7.2.0-7015 e successive e per TZ80 nella versione 8.0.1-8017 o successive.
I crediti vanno al ricercatore di sicurezza informatica Jon Williams di Bishop Fox.
L'articolo Firewall Sonicwall a rischio: un nuovo bug di sicurezza permette il blocco da remoto proviene da il blog della sicurezza informatica.
Firewall Sonicwall a rischio: un nuovo bug di sicurezza permette il blocco da remoto
📌 Link all'articolo : redhotcyber.com/post/firewall-…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
Firewall Sonicwall a rischio: un nuovo bug di sicurezza permette il blocco da remoto
Scoperta la vulnerabilità CVE-2025-32818 in Sonicwall SonicOS: permette di causare un crash remoto dei firewall via SSLVPN senza autenticazione. Patch già disponibile per i dispositivi Gen7.Redazione RHC (Red Hot Cyber)
Cybersecurity & cyberwarfare reshared this.
BigTech, Apple e Meta sanzionate dalla Commissione Ue per violazione del DMA
@Informatica (Italy e non Italy 😁)
Dopo un lungo processo di dialogo e analisi delle difese presentate dalle aziende coinvolte, la Commissioneeuropea ha inflitto sanzioni alle Big tech statunitensi per pratiche anticonconcorrenziali. Ecco tutti i dettagli
L'articolo BigTech, Apple e Meta
Informatica (Italy e non Italy 😁) reshared this.
A Bicycle is Abandonware Now? Clever Hack Rescues Dead Light
A bicycle is perhaps one of the most repairable pieces of equipment one can own — no matter what’s wrong with it, and wherever you are on the planet, you’ll be able to find somebody to fix your bike without too much trouble. Unfortunately as electric bikes become more popular, predatory manufacturers are doing everything they can to turn a bike into a closed machine, only serviceable by them.
That’s bad enough, but it’s even worse if the company happens to go under. As an example, [Fransisco] has a bike built by a company that has since gone bankrupt. He doesn’t name them, but it looks like a VanMoof to us. The bike features a light built into the front of the top tube of the frame, which if you can believe it, can only be operated by the company’s (now nonfunctional) cloud-based app.
The hack is relatively straightforward. The panel for the VanMoof electronics is removed and the works underneath are slid up the tube, leaving the connector to the front light. An off the shelf USB-C Li-Po charger and a small cell take the place of the original parts under a new 3D printed panel with a switch to run the light via a suitable resistor. If it wasn’t for the startling green color of the filament he used, you might not even know it wasn’t original.
We would advise anyone who will listen, that hardware which relies on an app and a cloud service should be avoided at all costs. We know most Hackaday readers will be on the same page as us on this one, but perhaps it’s time for a cycling manifesto to match our automotive one.
Thanks [cheetah_henry] for the tip.
Maronno Winchester reshared this.
“Zoom richiede il controllo del tuo schermo”: la nuova truffa che sta colpendo manager e CEO
“Elusive Comet”, un gruppo di hacker motivati finanziariamente, prende di mira gli utenti e i loro wallet di criptovalute con attacchi di ingegneria sociale che sfruttano la funzionalità di controllo remoto di Zoom per indurre gli utenti a concedere loro l’accesso ai propri computer. La funzione di controllo remoto di Zoom permette ai partecipanti di assumere il controllo del computer di un altro partecipante.
Secondo l’azienda di sicurezza informatica Trail of Bits, che si è imbattuta in questa campagna di ingegneria sociale, i responsabili rispecchiano le tecniche utilizzate dal gruppo di hacker Lazarus nel massiccio furto di criptovalute Bybit da 1,5 miliardi di dollari .
“La metodologia ELUSIVE COMET rispecchia le tecniche alla base del recente attacco informatico da 1,5 miliardi di dollari a Bybit a febbraio, in cui gli aggressori hanno manipolato flussi di lavoro legittimi anziché sfruttare le vulnerabilità del codice”, spiega il rapporto Trail of Bits. L’azienda è venuta a conoscenza di questa nuova campagna dopo che gli autori della minaccia hanno tentato di condurre un attacco di ingegneria sociale contro il suo CEO tramite X messaggi diretti.
L’attacco inizia con un invito a un’intervista “Bloomberg Crypto” tramite Zoom, inviato a obiettivi di alto valore tramite account fittizi su X o via e-mail (bloombergconferences[@]gmail.com). Gli account falsi impersonano giornalisti specializzati in criptovalute o testate giornalistiche Bloomberg e raggiungono le vittime tramite messaggi diretti sulle piattaforme dei social media.
Gli inviti vengono inviati tramite link di Calendly per pianificare una riunione su Zoom. Poiché sia gli inviti/link di Calendly che quelli di Zoom sono autentici, funzionano come previsto e riducono i sospetti del destinatario.
Durante la chiamata Zoom, l’aggressore avvia una sessione di condivisione dello schermo e invia una richiesta di controllo remoto alla vittima. Il trucco utilizzato in questa fase è che gli aggressori rinominano il loro nome visualizzato su Zoom in “Zoom”, in modo che il messaggio visualizzato dalla vittima reciti “Zoom richiede il controllo remoto del tuo schermo”, facendolo apparire come una richiesta legittima da parte dell’app.
Tuttavia, l’approvazione della richiesta fornisce agli aggressori il pieno controllo remoto sul sistema della vittima, consentendo loro di rubare dati sensibili, installare malware, accedere a file o avviare transazioni crittografiche.
L’aggressore potrebbe agire rapidamente per stabilire un accesso persistente impiantando una backdoor furtiva per sfruttarla in un secondo momento e disconnettersi, lasciando alle vittime poche possibilità di rendersi conto della compromissione.
L'articolo “Zoom richiede il controllo del tuo schermo”: la nuova truffa che sta colpendo manager e CEO proviene da il blog della sicurezza informatica.
“Zoom richiede il controllo del tuo schermo”: la nuova truffa che sta colpendo manager e CEO
📌 Link all'articolo : redhotcyber.com/post/zoom-rich…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
“Zoom richiede il controllo del tuo schermo”: la nuova truffa che sta colpendo manager e CEO
Una nuova tecnica di ingegneria sociale sfrutta la funzione di controllo remoto di Zoom per ingannare le vittime e ottenere accesso completo ai loro computer.Redazione RHC (Red Hot Cyber)
reshared this
From PostScript to PDF
There was a time when each and every printer and typesetter had its own quirky language. If you had a wordprocessor from a particular company, it worked with the printers from that company, and that was it. That was the situation in the 1970s when some engineers at Xerox Parc — a great place for innovation but a spotty track record for commercialization — realized there should be a better answer.
That answer would be Interpress, a language for controlling Xerox laser printers. Keep in mind that in 1980, a laser printer could run anywhere from $10,000 to $100,000 and was a serious investment. John Warnock and his boss, Chuck Geschke, tried for two years to commercialize Interpress. They failed.
So the two formed a company: Adobe. You’ve heard of them? They started out with the idea of making laser printers, but eventually realized it would be a better idea to sell technology into other people’s laser printers and that’s where we get PostScript.
Early PostScript and the Birth of Desktop Publishing
PostScript is very much like Forth, with words made specifically for page layout and laser printing. There were several key selling points that made the system successful.
First, you could easily obtain the specifications if you wanted to write a printer driver. Apple decided to use it on their LaserWriter. Of course, that meant the printer had a more powerful computer in it than most of the Macs it connected to, but for $7,000 maybe that’s expected.
Second, any printer maker could license PostScript for use in their device. Why spend a lot of money making your own when you could just buy PostScript off the shelf?
Finally, PostScript allowed device independence. If you took a PostScript file and sent it to a 300 DPI laser printer, you got nice output. If you sent it to a 2400 DPI typesetter, you got even nicer output. This was a big draw since a rasterized image was either going to look bad on high-resolution devices or have a huge file system in an era where huge files were painful to deal with. Even a page at 300 DPI is fairly large.
If you bought a Mac and a LaserWriter you only needed one other thing: software. But since the PostScript spec was freely available, software was possible. A company named Aldus came out with PageMaker and invented the category of desktop publishing. Adding fuel to the fire, giant Lionotype came out with a typesetting machine that accepted PostScript, so you could go from a computer screen to proofs to a finished print job with one file.
If you weren’t alive — or too young to pay attention — during this time, you may not realize what a big deal this was. Prior to the desktop publishing revolution, computer output was terrible. You might mock something up in a text file and print it on a daisy wheel printer, but eventually, someone had to make something that was “camera-ready” to make real printing plates. The kind of things you can do in a minute in any word processor today took a ton of skilled labor back in those days.
Take Two
Of course, you have to innovate. Adobe did try to prompt Display PostScript in the late 1980s as a way to drive screens. The NeXT used this system. It was smart, but a bit slow for the hardware of the day. Also, Adobe wanted licensing fees, which had worked well for printers, but there were cheaper alternatives available for displays by the time Display PostScript arrived.
In 1991, Adobe released PostScript Level 2 — making the old PostScript into “Level 1” retroactively. It had all the improvements you would expect in a second version. It was faster and crashed less. It had better support for things like color separation and handling compressed images. It also worked better with oddball and custom fonts, and the printer could cache fonts and graphics.
Remember how releasing the spec helped the original PostScript? For Level 2, releasing it early caused a problem. Competitors started releasing features for Level 2 before Adobe. Oops.
They finally released PostScript 3. (And dropped the “Level”.) This allowed for 12-bit colors instead of 8-bit. It also supported PDF files.
PDF?
While PostScript is a language for controlling a printer, PDF is set up as a page description language. It focuses on what the page looks like and not how to create the page. Of course, this is somewhat semantics. You can think of a PostScript file as a program that drives a Raster Image Processor (RIP) to draw a page. You can think of a PDF as somewhat akin to a compiled version of that program that describes what the program would do.
Up to PDF 1.4, released in 2001, everything you could do in a PDF file could be done in PostScript. But with PDF 1.4 there were some new things that PostScript didn’t have. In particular, PDFs support layers and transparency. Today, PDF rules the roost and PostScript is largely static and fading.
What’s Inside?
Like we said, a PostScript file is a lot like a Forth program. There’s a comment at the front (%!PS-Adobe-3.0) that tells you it is a PostScript file and the level. Then there’s a prolog that defines functions and fonts. The body section uses words like moveto, lineto, and so on to build up a path that can be stroked, filled, or clipped. You can also do loops and conditionals — PostScript is Turing-complete. A trailer appears at the end of each page and usually has a command to render the page (showpage), which may start a new page.A simple PostScript file running in GhostScript
A PDF file has a similar structure with a %PDF-1.7 comment. The body contains objects that can refer to pages, dictionaries, references, and image or font streams. There is also a cross-reference table to help find the objects and a trailer that points to the root object. That object brings in other objects to form the entire document. There’s no real code execution in a basic PDF file.
If you want to play with PostScript, there’s a good chance your printer might support it. If not, your printer drivers might. However, you can also grab a copy of GhostScript and write PostScript programs all day. Use GSView to render them on the screen or print them to any printer you can connect to. You can even create PDF files using the tools.
For example, try this:
%!PS
% Draw square
100 100 moveto
100 0 rlineto
0 100 rlineto
-100 0 rlineto
closepath
stroke
% Draw circle
150 150 50 0 360 arc
stroke
% Draw text "Hackaday" centered in the circle
/Times-Roman findfont 12 scalefont setfont % Choose font and size
(Hackaday) dup stringwidth pop 2 div % Calculate half text width
150 exch sub % X = center - half width
150 % Y = vertical center
moveto
(Hackaday) show
showpage
If you want to hack on the code or write your own, here’s the documentation. Think it isn’t really a programming language? [Nicolas] would disagree.
Google chiede ad alcuni dipendenti che lavorano da remoto di tornare in ufficio o di perdere il lavoro
Google chiede ai dipendenti di tornare in ufficio tre giorni a settimana
I diversi team avranno mandati leggermente diversi
A coloro che non saranno disposti o non saranno in grado di aderire alla nuova politica verrà chiesto di andarsene.
techradar.com/pro/google-is-de…
Google is demanding that some remote employees return to the office, or lose their jobs
Google set to enforce three-day RTO policyCraig Hale (TechRadar pro)
reshared this
Haptic Soft Buttons Speak(er) to Your Sense of Touch
There’s just something about a satisfying “click” that our world of touchscreens misses out on; the only thing that might be better than a good solid “click” when you hit a button is if device could “click” back in confirmation. [Craig Shultz] and his crew of fine researchers at the Interactive Display Lab at the University of Illinois seem to agree, because they have come up with an ingenious hack to provide haptic feedback using readily-available parts.An array of shapes showing some of the different possibilities for hapticoil soft buttons.
The “hapticoil”, as they call it, has a simple microspeaker at its heart. We didn’t expect a tiny tweeter to have the oomph to produce haptic feedback, and on its own it doesn’t, as finger pressure stops the vibrations easily. The secret behind the hapticoil is to couple the speaker hydraulically to a silicone membrane. In other words, stick the thing in some water, and let that handle the pressure from a smaller soft button on the silicone membrane. That button can be virtually any shape, as seen here.
Aside from the somewhat sophisticated electronics that allow the speaker coil to be both button and actuator (by measuring inductance changes when pressure is applied, while simultaneously driven as a speaker), there’s nothing here a hacker couldn’t very easily replicate: a microspeaker, a 3D printed enclosure, and a silicone membrane that serves as the face of the haptic “soft button”. That’s not to say we aren’t given enough info replicate the electronics; the researchers are kind enough to provide a circuit diagram in figure eight of their paper.
In the video below, you can see a finger-mounted version used to let a user feel pressing a button in virtual reality, which raises some intriguing possibilities. The technology is also demonstrated on a pen stylus and a remote control.
This isn’t the first time we’ve featured hydraulic haptics — [Craig] was also involved with an electroosmotic screen we covered previously, as well as a glove that used the same trick. This new microspeaker technique does seem much more accessible to the hacker set, however.
youtube.com/embed/-F2PaWVy2_I?…
The Mohmmeter: A Steampunk Multimeter
[Agatha] sent us this stunning multimeter she built as a gift for her mom. Dubbed the Mohmmeter — a playful nod to its ohmmeter function and her mom — this project combines technical ingenuity with heartfelt craftsmanship.
At its core, a Raspberry Pi Pico microcontroller reads the selector knob, controls relays, and lights up LEDs on the front panel to show the meter’s active range. The Mohmmeter offers two main measurement modes, each with two sub-ranges for greater precision across a wide spectrum.
She also included circuitry protections against reverse polarity and over-voltage, ensuring durability. There was also a great deal of effort put into ensuring it was accurate, as the device was put though its paces using a calibrated meter as reference to ensure the final product was as useful as it was beautiful.
The enclosure is a work of art, crafted from colorful wooden panels meticulously jointed together. Stamped brass plates label the meter’s ranges and functions, adding a steampunk flair. This thoughtful design reflects her dedication to creating something truly special.
Want to build a meter for mom, but she’s more of the goth type? The blacked-out Hydameter might be more here style.
Stanno cercando proprio la tua VPN Ivanti! oltre 230 IP stanno a caccia di endpoint vulnerabili
I criminali informatici sono a caccia. Sona a caccia di VPN Ivanti e la prossima potrebbe essere quella installata nella tua organizzazione!
I cybercriminali infatti sono alla ricerca di VPN Ivanti da sfruttare e lo stanno facendo attivando scansioni mirate. Un aumento delle attività di scansione rivolte ai sistemi VPN Ivanti Connect Secure (ICS) e Ivanti Pulse Secure (IPS), sono state rilevate recentemente e questo segnala un potenziale sforzo di ricognizione coordinato da parte degli autori della minaccia.
Questo aumento delle scansioni avvengono dopo la pubblicazione della vulnerabilità critica di buffer overflow basata sullo stack in Ivanti Connect Secure (versioni 22.7R2.5 e precedenti), Pulse Connect Secure 9.x (ora fuori supporto), Ivanti Policy Secure e Neurons per i gateway ZTA. Il bug di sicurezza è monitorato dal National Vulnerability Database con il codice CVE-2025-22457.
Anche l’Agenzia per la Cybersicurezza Nazionale italiana (ACN) aveva pubblicato un bollettino riportato la fase di sfruttamento attivo del bug di sicurezza all’inizio del mese di aprile. Inizialmente sottovalutata, si è poi scoperto che questa falla permetteva invece l’esecuzione di codice remoto (RCE) non autenticato, consentendo agli aggressori di eseguire codice arbitrario su dispositivi vulnerabili.
L’11 febbraio 2025 è stata rilasciata una patch per CVE-2025-22457 (versione ICS 22.7R2.6), ma molti dispositivi legacy rimangono senza patch e sono esposti.
I sistemi di monitoraggio di GreyNoise hanno segnalato scansioni massive attraverso i loro tag scanner ICS dedicati, che tracciano gli IP che tentano di identificare sistemi ICS/IPS accessibili tramite Internet .
Il picco, che ha registrato oltre 230 indirizzi IP univoci che hanno sondato gli endpoint ICS/IPS in un solo giorno, rappresenta un aumento di nove volte rispetto alla tipica base di riferimento giornaliera di meno di 30 IP univoci.
I tre principali Paesi di origine delle attività di scansione sono Stati Uniti, Germania e Paesi Bassi, mentre i principali obiettivi sono le organizzazioni in questi Paesi. Negli ultimi 90 giorni sono stati osservati 1.004 IP univoci che hanno eseguito scansioni simili, con le seguenti classificazioni: 634 Sospetto, 244 Malizioso, 126 Benigno.
È importante notare che nessuno di questi IP era falsificabile, il che indica che gli aggressori hanno sfruttato infrastrutture reali e tracciabili. Gli IP dannosi precedentemente osservati in altre attività nefaste provengono principalmente dai nodi di uscita Tor e da noti provider cloud o VPS.
Lo sfruttamento in natura è già stato confermato, con gruppi APT (Advanced Persistent Threat) come UNC5221 che hanno sottoposto la patch a reverse engineering per sviluppare exploit funzionanti. Per mitigare i rischi, le organizzazioni dovrebbero:
- Installare immediatamente le patch più recenti su tutti i sistemi ICS/IPS (ICS 22.7R2.6 o successive).
- Esaminare i registri per rilevare sospette ricerche e tentativi di accesso da IP nuovi o non attendibili.
- Bloccare gli IP sospetti o dannosi identificati da GreyNoise e altri feed di threat intelligence.
- Monitorare attività di autenticazione insolite, in particolare da Tor o da IP ospitati sul cloud.
- Utilizza lo strumento Integrity Checker (ICT) di Ivanti per identificare i segnali di compromissione.
GreyNoise continua a monitorare questa minaccia in evoluzione e consiglia ai team di sicurezza di restare vigili.
L'articolo Stanno cercando proprio la tua VPN Ivanti! oltre 230 IP stanno a caccia di endpoint vulnerabili proviene da il blog della sicurezza informatica.
GPT-4 scrive un exploit prima del PoC pubblico. La corsa alla Patch non è mai stata così essenziale
AI, AI e ancora AI. E sembra che l’intelligenza artificiale giorno dopo giorno ci porti innovazioni sia come difesa ma soprattutto, come attacco.
L’intelligenza artificiale è già in grado di creare exploit funzionanti per vulnerabilità critiche, anche prima che vengano pubblicate le versioni PoC. Ciò è stato dimostrato dal ricercatore di sicurezza Matt Keeley, che ha scritto un exploit con GPT-4 utilizzando vulnerabilità CVE-2025-32433 nel server SSH Erlang/OTP. La vulnerabilità ha ricevuto il punteggio CVSS massimo di 10,0 e consente l’esecuzione di codice remoto senza autenticazione.
La descrizione CVE stessa si è rivelata sufficiente: l’IA non solo ha capito qual era il problema, ma ha anche trovato in modo indipendente il commit con la correzione, lo ha confrontato con il vecchio codice, ha identificato le differenze, ha trovato vulnerabilità, ha scritto il PoC, lo ha testato, ne ha eseguito il debug e lo ha migliorato.
Da quanto riportato da Keely, tutto questo è avvenuto in una sera. Qualche anno fa, questo tipo di lavoro avrebbe richiesto una conoscenza approfondita di Erlang e molte ore di analisi manuale.
La vulnerabilità, divulgata il 16 aprile 2025, è dovuta a un bug nella gestione dei messaggi del protocollo SSH nella fase iniziale della connessione.
Ciò consente a un aggressore di eseguire codice arbitrario con privilegi elevati sul server. Keeley ha iniziato a interessarsi al bug dopo aver letto un tweet di Horizon3.ai, in cui si affermava di aver creato un exploit ma di non averlo reso pubblico. Il ricercatore ha quindi deciso di testare le capacità di GPT-4 e ha ottenuto un risultato funzionante, guidando l’IA passo dopo passo.
Questa scoperta sta suscitando entusiasmo tra gli esperti, ma sta anche suscitando preoccupazione. L’automazione del processo di individuazione delle vulnerabilità e di creazione di exploit riduce drasticamente la barriera d’ingresso per gli aggressori.
Entro 24 ore dalla divulgazione della vulnerabilità, diversi team avevano presentato le loro versioni degli exploit e il team Platform Security aveva addirittura reso disponibile al pubblico su GitHub il loro PoC generato dall’intelligenza artificiale.
Le versioni vulnerabili di Erlang/OTP (OTP-27.3.2 e precedenti, OTP-26.2.5.10 e precedenti, OTP-25.3.2.19 e precedenti) sono state aggiornate urgentemente. Si consiglia di effettuare l’aggiornamento a OTP-27.3.3, OTP-26.2.5.11 o OTP-25.3.2.20 il prima possibile.
Questa storia mostra chiaramente come l’intelligenza artificiale stia cambiando le regole del gioco nella sicurezza informatica. Quanto più potenti diventano gli strumenti, tanto minore è il tempo che intercorre tra la scoperta di una vulnerabilità e il suo sfruttamento. Ciò significa solo una cosa: la strategia dell’applicazione istantanea delle patch è ora più importante che mai.
L'articolo GPT-4 scrive un exploit prima del PoC pubblico. La corsa alla Patch non è mai stata così essenziale proviene da il blog della sicurezza informatica.
Papa Francesco, attenti alle tante truffe online che ne sfruttano la morte
@Informatica (Italy e non Italy 😁)
Secondo Check Point, la tattica non è nuova, ma fa leva sull'emotività e sulla curiosità che suscita l'addio di un Pontefice molto amato e popolare. Ecco come mitigare il rischio della diffusione disinformazione basata su immagini fasulle generate dall'AI
Informatica (Italy e non Italy 😁) reshared this.
Stanno cercando proprio la tua VPN Ivanti! oltre 230 IP stanno a caccia di endpoint vulnerabili
📌 Link all'articolo : redhotcyber.com/post/stanno-ce…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
Stanno cercando proprio la tua VPN Ivanti! oltre 230 IP stanno a caccia di endpoint vulnerabili
Caccia globale alle VPN Ivanti: scoperta la vulnerabilità critica CVE-2025-22457, già sfruttata da gruppi APT. Oltre 230 IP sospetti hanno lanciato scansioni massive. Scopri come proteggere la tua rete.Redazione RHC (Red Hot Cyber)
reshared this
securityaffairs.com/176917/cyb…
#securityaffairs #hacking #russia #malware
Crooks exploit the death of Pope Francis
Crooks exploit the death of Pope Francis, using public curiosity and emotion to launch scams and spread malware, an old tactic during global events.Pierluigi Paganini (Security Affairs)
reshared this
GPT-4 scrive un exploit prima del PoC pubblico. La corsa alla Patch non è mai stata così essenziale
📌 Link all'articolo : redhotcyber.com/post/gpt-4-scr…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
GPT-4 scrive un exploit prima del PoC pubblico. La corsa alla Patch non è mai stata così essenziale
GPT-4 ha scritto un exploit funzionante per la vulnerabilità critica CVE-2025-32433 prima della pubblicazione ufficiale. Una nuova era per il cybercrime?Redazione RHC (Red Hot Cyber)
reshared this
Nel 2025, parlare di intelligenza artificiale come qualcosa di nuovo fa sorridere. - Marco Camisani Calzolari
Nel 2025, parlare di intelligenza artificiale come qualcosa di nuovo fa sorridere.È ovunque: nella nostra cucina, nel nostro guardaroba, nelle decisioni diWeb Staff MCC (Marco Camisani Calzolari)
Cybersecurity & cyberwarfare reshared this.
securityaffairs.com/176901/sec…
#securityaffairs #hacking #russia #malware
WhatsApp introduces Advanced Chat Privacy to protect sensitive communications
WhatsApp adds Advanced Chat Privacy feature that allows users to block others from sharing chat content outside the app.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
La corsa verso i robot umanoidi è partita e nessuno vuole restare indietro - Marco Camisani Calzolari
La corsa verso i robot umanoidi è partita e nessuno vuole restare indietro, soprattutto perché non è solo tecnologia, ma potere geopolitico e industriale.Web Staff MCC (Marco Camisani Calzolari)
Cybersecurity & cyberwarfare reshared this.
Cyber sicurezza: il filo rosso che unisce la piccola impresa al Quirinale
@Informatica (Italy e non Italy 😁)
La pubblicazione dei numeri di telefono di alcuni esponenti politici del nostro Paese ha suscitato preoccupazione sulla vulnerabilità delle informazioni istituzionali, ma è un monito sulla necessità di un approccio integrato e sistemico alla protezione delle informazioni digitali.
Informatica (Italy e non Italy 😁) reshared this.
SuperCard X: il nuovo malware Android che minaccia i pagamenti Nfc
@Informatica (Italy e non Italy 😁)
Questa frode colpisce direttamente le carte di pagamento, bypassando le protezioni bancarie tradizionali indipendentemente dall’istituto finanziario. È veloce e difficile da bloccare, perché i fondi rubati vengono trasferiti istantaneamente e utilizzati subito per acquisti.
Informatica (Italy e non Italy 😁) reshared this.
È necessario ridefinire il cloud: più distribuito, rapido, vicino all’utente
@Informatica (Italy e non Italy 😁)
Il futuro dell’innovazione digitale passa attraverso un modello Edge Native, dove il calcolo non è più confinato in grandi data center centralizzati, ma si sposta geograficamente in prossimità dell’utente finale. Ecco come l'approccio Edge-first
Informatica (Italy e non Italy 😁) reshared this.
Benvenuti nell’era dell’esperienza - Marco Camisani Calzolari
C’è una frase che riassume tutto: “Benvenuti nell’era dell’esperienza”. È il nuovo paper firmato da due colonne dell’Intelligenza Artificiale: David Silver eWeb Staff MCC (Marco Camisani Calzolari)
Cybersecurity & cyberwarfare reshared this.
Operation SyncHole: Lazarus APT goes back to the well
We have been tracking the latest attack campaign by the Lazarus group since last November, as it targeted organizations in South Korea with a sophisticated combination of a watering hole strategy and vulnerability exploitation within South Korean software. The campaign, dubbed “Operation SyncHole”, has impacted at least six organizations in South Korea’s software, IT, financial, semiconductor manufacturing, and telecommunications industries, and we are confident that many more companies have actually been compromised. We immediately took action by communicating meaningful information to the Korea Internet & Security Agency (KrCERT/CC) for rapid action upon detection, and we have now confirmed that the software exploited in this campaign has all been updated to patched versions.
Our findings in a nutshell:
- At least six South Korean organizations were compromised by a watering hole attack combined with exploitation of vulnerabilities by the Lazarus group.
- A one-day vulnerability in Innorix Agent was also used for lateral movement.
- Variants of Lazarus’ malicious tools, such as ThreatNeedle, Agamemnon downloader, wAgent, SIGNBT, and COPPERHEDGE, were discovered with new features.
Background
The initial infection was discovered in November of last year when we detected a variant of the ThreatNeedle backdoor, one of the Lazarus group’s flagship malicious tools, used against a South Korean software company. We found that the malware was running in the memory of a legitimate SyncHost.exe process, and was created as a subprocess of Cross EX, legitimate software developed in South Korea. This potentially was the starting point for the compromise of further five organizations in South Korea. Additionally, according to a recent security advisory posted on the KrCERT website, there appear to be recently patched vulnerabilities in Cross EX, which were addressed during the timeframe of our research.
In the South Korean internet environment, the online banking and government websites require the installation of particular security software to support functions such as anti-keylogging and certificate-based digital signatures. However, due to the nature of these software packages, they constantly run in the background to interact with the browser. The Lazarus group shows a strong grasp of these specifics and is using a South Korea-targeted strategy that combines vulnerabilities in such software with watering hole attacks. The South Korean National Cyber Security Center published its own security advisory in 2023 against such incidents, and also published additional joint security advisories in cooperation with the UK government.
Cross EX is designed to enable the use of such security software in various browser environments, and is executed with user-level privileges except immediately after installation. Although the exact method by which Cross EX was exploited to deliver malware remains unclear, we believe that the attackers escalated their privileges during the exploitation process as we confirmed the process was executed with high integrity level in most cases. The facts below led us to conclude that a vulnerability in the Cross EX software was most likely leveraged in this operation.
- The most recent version of Cross EX at the time of the incidents was installed on the infected PCs.
- Execution chains originating from the Cross EX process that we observed across the targeted organizations were all identical.
- The incidents that saw the Synchost process abused to inject malware were concentrated within a short period of time: between November 2024 and February 2025.
In the earliest attack of this operation, the Lazarus group also exploited another South Korean software product, Innorix Agent, leveraging a vulnerability to facilitate lateral movement, enabling the installation of additional malware on a targeted host of their choice. They even developed malware to exploit this, avoiding repetitive tasks and streamlining processes. The exploited software, Innorix Agent (version 9.2.18.450 and earlier), was previously abused by the Andariel group, while the malware we obtained targeted the more recent version 9.2.18.496.
While analyzing the malware’s behavior, we discovered an additional arbitrary file download zero-day vulnerability in Innorix Agent, which we managed to detect before any threat actors used it in their attacks. We reported the issues to the Korea Internet & Security Agency (KrCERT) and the vendor. The software has since been updated with patched versions.
Installing malware through vulnerabilities in software exclusively developed in South Korea is a key part of the Lazarus group’s strategy to target South Korean entities, and we previously disclosed a similar case in 2023, as did ESET and KrCERT.
Initial vector
The infection began when the user of a targeted system accessed several South Korean online media sites. Shortly after visiting one particular site, the machine was compromised by the ThreatNeedle malware, suggesting that the site played a key role in the initial delivery of the backdoor. During the analysis, it was discovered that the infected system was communicating with a suspicious IP address. Further examination revealed that this IP hosted two domains (T1583.001), both of which appeared to be hastily created car rental websites using publicly available HTML templates.
Appearance of www.smartmanagerex[.]com
The first domain, www.smartmanagerex[.]com, seemed to be masquerading as software provided by the same vendor that distributes Cross EX. Based on these findings, we reconstructed the following attack scenario.
Attack flow during initial compromise
Given that online media sites are typically visited quite frequently by a wealth of users, the Lazarus group filters visitors with a server-side script and redirects desired targets to an attacker-controlled website (T1608.004). We assess with medium confidence that the redirected site may have executed a malicious script (T1189), targeting a potential flaw in Cross EX (T1190) installed on the target PC, and launching malware. The script then ultimately executed the legitimate SyncHost.exe and injected a shellcode that loaded a variant of ThreatNeedle into that process. This chain, which ends with the malware being injected into SyncHost.exe, was common to all of the affected organizations we identified, meaning that the Lazarus group has conducted extensive operations against South Korea over the past few months with the same vulnerability and the same exploit.
Execution flow
We have divided this operation into two phases based on the malware used. The first phase focused primarily on the execution chain involving ThreatNeedle and wAgent. It was then followed by the second phase which involved the use of SIGNBT and COPPERHEDGE.
We derived a total of four different malware execution chains based on these phases from at least six affected organizations. In the first infection case, we found a variant of the ThreatNeedle malware, but in subsequent attacks, the SIGNBT malware took its place, thus launching the second phase. We believe this is due to the quick and aggressive action we took with the first victim. In subsequent attacks, the Lazarus group introduced three updated infection chains including SIGNBT, and we observed a wider range of targets and more frequent attacks. This suggests that the group may have realized that their carefully prepared attacks had been exposed, and extensively leveraged the vulnerability from then on.
Chains of infection across the operation
First-phase malware
In the first infection chain, many updated versions of the malware previously used by the Lazarus group were used.
Variant of ThreatNeedle
The ThreatNeedle sample used in this campaign was also referred to as “ThreatNeedleTea” in a research paper published by ESET; we believe this is an updated version of the early ThreatNeedle. However, the ThreatNeedle seen in this attack had been modified with additional features.
This version of ThreatNeedle is divided into a Loader and Core samples. The Core version retrieves five configuration files from C_27098.NLS to C_27102.NLS, and contains a total of 37 commands. The Loader version, meanwhile, references only two configuration files and implements only four commands.
The Core component receives a specific command from the C2, resulting in an additional loader file being created for the purpose of persistence. This file can be disguised as the ServiceDLL value of a legitimate service in the netsvcs group (T1543.003), the IKEEXT service (T1574.001), or registered as a Security Service Provider (SSP) (T1547.005). It ultimately loads the ThreatNeedle Loader component.
Behavior flow to load ThreatNeedle Loader by target service
The updated ThreatNeedle generates a random key pair based on the Curve25519 algorithm (T1573.002), sends the public key to the C2 server, and then receives the attacker’s public key. Finally, the generated private key and the attacker’s public key are scalar-operated to create a shared key, which is then used as the key for the ChaCha20 algorithm to encrypt the data (T1573.001). The data is sent and received in JSON format.
LPEClient
LPEClient is a tool known for victim profiling and payload delivery (T1105) that has previously been observed in attacks on defense contractors and the cryptocurrency industry. We disclosed that this tool had been loaded by SIGNBT when we first documented SIGNBT malware. However, we did not observe LPEClient being loaded by SIGNBT in this campaign. It was only loaded by the variant of ThreatNeedle.
Variant of wAgent
In addition to the variant of ThreatNeedle, a variant of the wAgent malware was also discovered in the first affected organization. wAgent is a malicious tool that we documented in 2020, and a similar version was mentioned in Operation GoldGoblin by KrCERT. The origin of its creation is still shrouded in mystery, but we discovered that the wAgent loader was disguised as liblzma.dll and executed via the command line rundll32.exec:\Programdata\intel\util.dat,afunix1W2-UUE-ZNO-B99Z (T1218.011). The export function retrieves the given filename 1W2-UUE-ZNO-B99Z in C:\ProgramData, which also serves as the decryption key. After converting this filename into wide bytes, it uses the highest 16 bytes of the resulting value as the key for the AES-128-CBC algorithm and decrypts (T1140) the contents of the file located in C:\ProgramData (T1027.013). The upper four bytes of the decrypted data subsequently represent the size of the payload (T1027.009), which we identified as an updated version of the wAgent malware.
The variant of wAgent has the ability to receive data in both form-data and JSON formats, depending on the C2 server it succeeds in reaching. Notably, it includes the __Host-next-auth-token key within the Cookie field in the request header during the communication (T1071.001), carrying the sequence of communication appended by random digits. In this version, the new observed change is that an open-source GNU Multiple-Precision (GMP) library is employed to carry out RSA encryption computations, which is a previously unseen library in malware used by the Lazarus group. According to the wAgent configuration file, it is identified as the x64_2.1 version. This version manages payloads using a C++ STL map, with emphasis on receiving additional payloads from the C2 and loading them directly into memory, along with creating a shared object. With this object, the main module is able to exchange command parameters and execution results with the delivered plugins.
Operational structure of the wAgent variant
Variant of the Agamemnon downloader
The Agamemnon downloader is also responsible for downloading and executing additional payloads received from the C2 server. Although we did not obtain the configuration file of Agamemnon, it receives commands from the C2 and executes the payload by parsing the commands and parameters based on ;; characters, which serve as command and parameter delimiters. The value of the mode in response passed with a 2 command determines how to execute the additional payload, which is delivered along with a 3 command. There are two methods of execution: the first one is to load the payload reflectively (T1620), which is commonly used in malware, whereas the second one is to utilize the open-source Tartarus-TpAllocInject technique, which we have not previously seen in malware from the Lazarus group.
Structure of the commands where additional data is passed
The open-source loader is built on top of another open-source loader named Tartarus’ Gate. Tartarus’ Gate is based on Halo’s Gate, which is in turn based on Hell’s Gate. All of these techniques are designed to bypass security products such as antivirus and EDR solutions, but they load the payload in different ways.
Innorix Agent exploit for lateral movement
Unlike the previously mentioned tools, the Innorix abuser is used for lateral movement. It is downloaded by the Agamemnon downloader (T1105) and exploits a specific version of a file transfer software tool developed in South Korea, Innorix Agent, to fetch additional malware on internal hosts (T1570). Innorix Agent is another software product that is mandatory for some financial and administrative tasks in the South Korean internet environment, meaning that it is likely to be installed on many PCs of both corporations and individuals in South Korea, and any user with a vulnerable version is potentially a target. The malware embeds a license key allegedly bound to version 9.2.18.496, which allows it to perform lateral movement by generating malicious traffic disguised as legitimate traffic against targeted network PCs.
The Innorix abuser is given parameters from the Agamemnon downloader: the target IP, URL to download a file, and file size. It then delivers a request to that target IP to check if Innorix Agent is installed and running. If a successful response is returned, the malware assumes that the software is running properly on the targeted host and transmits traffic that allows the target to download the additional files from the given URL due to a lack of traffic validation.
Steps to deploy additional malware via the Innorix abuser
The actor created a legitimate AppVShNotify.exe and a malicious USERENV.dll file in the same path via the Innorix abuser, and then executed the former using a legitimate feature of the software. The USERENV.dll was sideloaded (T1574.002) as a result, which ultimately led to the execution of ThreatNeedle and LPEClient on the targeted hosts, thus launching the infection chain on previously unaffected machines.
We reported this vulnerability to KrCERT due to the potentially dangerous impact of the Innorix abuser, but were informed that the vulnerability has been exploited and reported in the past. We have confirmed that this malware does not work effectively in environments with Innorix Agent versions other than 9.2.18.496.
In addition, while digging into the malware’s behavior, we identified another additional arbitrary file download vulnerability that applies to versions up to 9.2.18.538. It is tracked as KVE-2025-0014 and we have not yet found any evidence of its use in the wild. KVE is a vulnerability identification number issued exclusively by KrCERT. We successfully contacted Innorix to share our findings containing the vulnerabilities via KrCERT, and they managed to release a patched version in March with both vulnerabilities fixed.
Second phase malware
The second phase of the operation also introduces newer versions of malicious tools previously seen in Lazarus attacks.
SIGNBT
The SIGNBT we documented in 2023 was version 1.0, but in this attack, version 0.0.1 was used at the forefront. In addition, we identified a more recent version, SIGNBT 1.2. Unlike versions 1.0 and 0.0.1, the 1.2 version had minimal remote control capabilities and was focused on executing additional payloads. The malware developers named this version “Hijacking”.
In the second phase of this operation, SIGNBT 0.0.1 was the initial implant executed in memory in SyncHost.exe to fetch additional malware. In this version, the C2 server was hardcoded without reference to any configuration files. During this investigation, we found a credential dumping tool that was fetched by SIGNBT 0.0.1, identical to what we have seen in previous attacks.
As for version 1.2, it fetches the path to the configuration file from its resources and retrieves the file to obtain C2 server addresses. We were able to extract two configuration file paths from each identified SIGNBT 1.2 sample, which are shown below. Another change in SIGNBT 1.2 is that the number of prefixes starting with SIGN are reduced to only three: SIGNBTLG, SIGNBTRC, and SIGNBTSR. The malware receives an RSA public key from the C2 and encrypts a randomly generated AES key using the public key. All traffic is encrypted with the generated AES key.
- Configuration file path 1: C:\ProgramData\Samsung\SamsungSettings\settings.dat
- Configuration file path 2: C:\ProgramData\Microsoft\DRM\Server\drm.ver
{
proxylist: [{ // C2 server list
proxy: "https%0x3A//builsf[.]com/inc/left.php"
},
{
proxy: "https%0x3A//www.rsdf[.]kr/wp-content/uploads/2024/01/index.php"
},
{
proxy: "http%0x3A//www.shcpump[.]com/admin/form/skin/formBasic/style.php"
},
{
proxy: "https%0x3A//htns[.]com/eng/skin/member/basic/skin.php"
},
{
proxy: "https%0x3A//kadsm[.]org/skin/board/basic/write_comment_skin.php"
},
{
proxy: "http%0x3A//bluekostec[.]com/eng/community/write.asp"
},
{
proxy: "http%0x3A//dream.bluit.gethompy[.]com/mobile/skin/board/gallery/index.skin.php"
}],
wake: 1739839071, // Timestamp of Tuesday, February 18, 2025 12:37:51 AM
status: 1 // It means the scheduled execution time is set.
}
COPPERHEDGE
COPPERHEDGE is a malicious tool that was named by US-CERT in 2020. It is a Manuscrypt variant and was primarily used in the DeathNote cluster attacks. Unlike the other malware used in this operation, COPPERHEDGE has not changed dramatically, with only several commands being slightly changed compared to the older versions. This version, however, retrieves configuration information such as the C2 server address from the ADS %appdata%\Microsoft\Internet Explorer\brndlog.txt:loginfo (T1564.004). The malware then sends HTTP traffic to C2 with three or four parameters for each request, where the parameter name is chosen randomly out of three names in any order.
- First HTTP parameter name: bih, aqs, org
- Second HTTP parameter name: wib, rlz, uid
- Third HTTP parameter name: tib, hash, lang
- Fourth HTTP parameter name: ei, ie, oq
The actor primarily used the COPPERHEDGE malware to conduct internal reconnaissance in this operation. There are a total of 30 commands from 0x2003 to 0x2032, and 11 response codes from 0x2040 to 0x2050 inside the COPPERHEDGE backdoor.
The evolution of Lazarus malware
In recent years, the malware used by the Lazarus group has been rapidly evolving to include lightweighting and modularization. This applies not only to newly added tools, but also to malware that has been used in the past. We have observed such changes for a few years, and we believe there are more on the way.
Use of asymmetric encryption | Load plugins | Divided into core and loader version | |
MISTPEN | – | O | – |
CookiePlus | O (RSA) | O | – |
ThreatNeedle | O (Curve25519) | O | O |
wAgent (downloader) | O (RSA) | O | – |
Agamemnon downloader | – | – | – |
SIGNBT | O (RSA) | O | O |
COPPERHEDGE | O (RSA) | – | O |
Discoveries
During our investigation into this campaign, we gained extensive insight into the Lazarus group’s post-exploitation strategy. After installing the COPPERHEDGE malware, the actor executed numerous Windows commands to gather basic system information (T1082, T1083, T1057, T1049, T1016, T1087.001), create a malicious service (T1569.002, T1007) and attempt to find valuable hosts to perform lateral movement (T1087.002, T1135).
While analyzing the commands executed by the actor, we were able to identify the actor’s mistake when using the taskkill command: the /im parameter when using taskkill means imagename, which should specify the image name of the process, not the process id. This shows that the actor is still performing internal reconnaissance by manually entering commands.
Infrastructure
Throughout this operation, most of the C2 servers were legitimate but compromised websites in South Korea (T1584.001), further indicating that this operation was highly focused on South Korea. In the first phase, other media sites were utilized as C2 servers to avoid detection of media-initiated watering hole attacks. However, as the infection chain turned to the second phase, legitimate sites in various other industries were additionally exploited.
Unlike other cases, LPEClient’s C2 server was hosted by the same hosting company as www.smartmanagerex[.]com, which was deliberately created for initial compromise. Given that LPEClient is heavily relied upon by the Lazarus group for delivering additional payloads, it is likely that the attackers deliberately rented and configured the server (T1583.003), assigning a domain under their control to maintain full operational flexibility. In addition to this, we also found that two domains that were exploited as C2 servers for SIGNBT 0.0.1 resolved to the same hosting company’s IP range.
We confirmed that the domain thek-portal[.]com belonged to a South Korean ISP until 2020 and was the legitimate domain of an insurance company that was acquired by another company. Since then, the domain had been parked and its status was changed in February 2025, indicating that the Lazarus group re-registered the domain to leverage it in this operation.
Attribution
Throughout this campaign, several malware samples were used that we managed to attribute to the Lazarus group through our ongoing and dedicated research conducted for a long time. Our attribution is supported by the historical use of the malware strains, as well as their TTPs, all of which have been well documented by numerous security solutions vendors and governments. Furthermore, we have analyzed the execution time of the Windows commands delivered by the COPPERHEDGE malware, the build timestamps of all malicious samples we described above, and the time of initial compromise per host, demonstrating that the timeframes were mostly concentrated between GMT 00:00 and 09:00. Based on our knowledge of normal working hours in various time zones, we can infer that the actor is located in the GMT+09 time zone.
Timeline of malicious activity
Victims
We identified at least six software, IT, financial, semiconductor manufacturing and telecommunication organizations in South Korea that fell victim to “Operation SyncHole”. However, we are confident that there are many more affected organizations across a broader range of industries, given the popularity of the software exploited by Lazarus in this campaign.
Conclusion
This is not the first time that the Lazarus group exploited supply chains with a full understanding of the software ecosystem in South Korea. We have already described similar attacks in our analysis reports on the Bookcode cluster in 2020, the DeathNote cluster in 2022, and the SIGNBT malware in 2023. All of these cases targeted software developed by South Korean vendors that required installation for online banking and government services. Both of the software products exploited in this case are in line with past cases, meaning that the Lazarus group is endlessly adopting an effective strategy based on cascading supply chain attacks.
The Lazarus group’s specialized attacks targeting supply chains in South Korea are expected to continue in the future. Our research over the past few years provided evidence that many software development vendors in Korea have already been attacked, and if the source code of a product has been compromised, other zero-day vulnerabilities may continue to be discovered. The attackers are also making efforts to minimize detection by developing new malware or enhancing existing malware. In particular, they introduce enhancements to the communication with the C2, command structure, and the way they send and receive data.
We have proven that accurate detection and quick response can effectively deter their tactics, and in the meantime, we were able to remediate vulnerabilities and mitigate attacks to minimize damage. We will continue to monitor the activity of this group and remain agile in responding to their changes. We also recommend using reliable security solutions to stay alert and mitigate potential risks. Our product line for businesses helps identify and prevent attacks of any complexity at an early stage.
Kaspersky products detect the exploits and malware used in this attack with the following verdicts: Trojan.Win64.Lazarus.*, Trojan.Win32.Lazarus.*, MEM:Trojan.Win32.Cometer.gen, MEM:Trojan.Win32.SEPEH.gen, Trojan.Win32.Manuscrypt.*, Trojan.Win64.Manuscrypt.*, Trojan.Win32.Zenpak.*.
Indicators of Compromise
More IoCs are available to customers of the Kaspersky Intelligence Reporting Service. Contact: intelreports@kaspersky.com.
Variant of the ThreatNeedle loader
f1bcb4c5aa35220757d09fc5feea193b C:\System32\PCAuditex.dll
Variant of the wAgent loader
dc0e17879d66ea9409cdf679bfea388c C:\ProgramData\intel\util.dat
COPPERHEDGE dropper
2d47ef0089010d9b699cd1bbbc66f10a %AppData%\hnc\_net.tmp
C2 servers
www[.]smartmanagerex[.]com
hxxps://thek-portal[.]com/eng/career/index.asp
hxxps://builsf[.]com/inc/left.php
hxxps://www[.]rsdf[.]kr/wp-content/uploads/2024/01/index.php
hxxp://www[.]shcpump[.]com/admin/form/skin/formBasic/style.php
hxxps://htns[.]com/eng/skin/member/basic/skin.php
hxxps://kadsm[.]org/skin/board/basic/write_comment_skin.php
hxxp://bluekostec[.]com/eng/community/write.asp
hxxp://dream.bluit.gethompy[.]com/mobile/skin/board/gallery/index.skin.php
C64 Assembly in Parts
[Michal Sapka] wanted to learn a new skill, so he decided on the Commodore 64 assembly language. We didn’t say he wanted to learn a new skill that might land him a job. But we get it and even applaud it. Especially since he’s written a multi-part post about what he’s doing and how you can do it, too. So far, there are four parts, and we’d bet there are more to come.
The series starts with the obligatory “hello world,” as well as some basic setup steps. By part 2, you are learning about registers and numbers. Part 3 covers some instructions, and by part 4, he finds that there are even more registers to contend with.
One of the great things about doing a project like this today is that you don’t have to have real hardware. Even if you want to eventually run on real hardware, you can edit in comfort, compile on a fast machine, and then debug and test on an emulator. [Michal] uses VICE.
The series is far from complete, and we hear part 5 will talk about branching, so this is a good time to catch up.
We love applying modern tools to old software development.
Vaticano blindato: il conclave 2025 si prepara alla guerra digitale per eleggere il nuovo Papa
Dopo la morte di Papa Francesco, il Vaticano si sta preparando per uno degli eventi religiosi più importanti e segreti: un conclave durante il quale i cardinali di diversi Paesi eleggeranno il nuovo pontefice. Secondo il canone ecclesiastico, la procedura deve iniziare entro e non oltre venti giorni dalla morte del capo della Chiesa cattolica. Ma nel 2025, organizzare un antico rituale si trova ad affrontare sfide mai viste nei secoli precedenti.
Le minacce alla privacy di oggi non hanno precedenti: droni dotati di microtelecamere, intelligenza artificiale in grado di leggere i movimenti delle labbra, satelliti ad alta risoluzione, dispositivi di registrazione miniaturizzati e una rete globale di piattaforme social in cui qualsiasi fuga di notizie diventa di dominio pubblico in pochi secondi. In tali condizioni, il compito del Vaticano non è solo quello di garantire il silenzio e la privacy, ma di creare una capsula tecnologicamente impenetrabile in cui il voto avverrà in completo isolamento dal mondo esterno.
L’esperienza dei conclavi precedenti, in particolare l’elezione di Papa Francesco nel 2013, dimostra che il Vaticano si sta preparando in anticipo a un simile scenario. Da allora le misure di sicurezza sono state notevolmente rafforzate. L’area dove i cardinali vivono e lavorano durante il conclave, si trasforma in in un bunker digitale. Vengono installati jammer che bloccano i segnali radio di tutti i tipi, dalle comunicazioni mobili al Wi-Fi. Anche se in qualche modo un dispositivo proibito dovesse entrare, resterebbe comunque inutile.
L’ispezione tecnica dei locali inizia diversi giorni prima dell’arrivo dei partecipanti. Il personale addetto alla sicurezza controlla pareti e mobili alla ricerca di microfoni nascosti, microcamere laser e altri potenziali dispositivi di sorveglianza. Ogni persona ammessa viene sottoposta a un controllo approfondito: borse, vestiti e scarpe vengono scansionati e, se necessario, sottoposti a radiografia. La probabilità che qualcuno possa introdurre un dispositivo per registrare o trasmettere informazioni è minima.
Un’ulteriore misura consiste nel coprire le finestre con una speciale pellicola opaca. Ciò avviene non solo nella sala riunioni, ma anche negli alloggi dei cardinali. Il motivo è che i satelliti moderni sono in grado di riconoscere i volti in orbita e gli algoritmi di intelligenza artificiale sono in grado di leggere il parlato dai movimenti delle labbra. Le finestre vengono sigillate prima dell’arrivo dei partecipanti per impedire qualsiasi tentativo di osservazione visiva. Inoltre, durante l’intera procedura è loro vietato anche solo avvicinarsi alle finestre o aprirle.
Nel 2018, il sistema di videosorveglianza del Vaticano comprendeva 650 telecamere controllate da un centro di controllo sotterraneo. Da allora, la rete non ha fatto altro che espandersi e modernizzarsi. Inoltre, la sicurezza è monitorata da due strutture: la Gendarmeria vaticana (di fatto la polizia locale) e la Guardia Svizzera Pontificia. Nonostante l’uniforme storica con maniche a sbuffo e alabarde, le guardie sono addestrate secondo gli standard delle forze speciali e hanno a disposizione armi moderne, dalle mitragliatrici ai lanciagranate.
La superficie dello Stato stesso è di soli 0,44 chilometri quadrati. Tuttavia, il giorno dell’annuncio del nuovo Papa, qui accorreranno decine di migliaia di pellegrini, giornalisti, diplomatici e fedeli. Si stima che il numero di visitatori raggiungerà i 200.000.
Poiché ogni smartphone è una potenziale macchina fotografica e fonte di perdite, il Vaticano è costretto ad agire come una fortezza high-tech a protezione della segretezza del momento che deciderà il futuro di 1,5 miliardi di cattolici in tutto il mondo.
L'articolo Vaticano blindato: il conclave 2025 si prepara alla guerra digitale per eleggere il nuovo Papa proviene da il blog della sicurezza informatica.
La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA
In un precedente articolo abbiamo esplorato il calcolo parallelo nel mondo dell’informatica. Ora ci concentreremo su come le più recenti innovazioni tecnologiche nelle architetture hardware per il calcolo ad alte prestazioni costituiscano la base delle moderne rivoluzioni tecnologiche. La diffusione di tecnologie come l’intelligenza artificiale, cybersicurezza e la crittografia avanzata possono risultare disorientante per chi non le conosce. Con questo breve articolo, ci proponiamo di offrire una “lampada di Diogene”, per illuminare un tratto della complessa strada verso la comprensione di queste nuove tecniche, aiutandoci ad affrontarle con spirito critico e consapevole, anziché accettarle passivamente come dei moderni oracoli di Delfi.
Analizzeremo il percorso storico del calcolo parallelo, dalla macchina Colossus di Bletchley Park degli anni ’40 fino all’attuale evoluzione tecnologica. Approfondiremo i meccanismi che hanno guidato questo sviluppo e sveleremo qualche dettaglio dei meccanismi fondamentali del calcolo parallelo.
La storia dei supercomputer inizia con la macchina Colossus, che affrontava enormi problemi con una potenza che ricordava quella di Golia. Oggi, invece, servono strategie più sofisticate. Con l’aumento della complessità e dei limiti fisici, spingere la velocità dei processori (il clock) e seguire la Legge di Moore è diventato sempre più impegnativo. Per questo motivo, il parallelismo si è rivelato una soluzione cruciale per migliorare le prestazioni. I moderni processori sono dotati di più core. Utilizzano tecniche come l’hyperthreading, che consente l’elaborazione contemporanea di più thread su un unico processore, e impiegano unità vettoriali per eseguire più istruzioni simultaneamente. Grazie a questi sviluppi, persino dispositivi come notebook, workstation o smartphone possono competere con le capacità dei supercomputer di vent’anni fa, che occupavano intere stanze.
Proprio come nella celebre sfida tra Davide e Golia, i supercomputer sono progettati per eseguire calcoli e risolvere problemi estremamente complessi – dalle previsioni meteorologiche alle simulazioni per la creazione di nuovi farmaci e modelli per l’esplorazione dell’universo – mentre i personal computer, agili e accessibili, rispondono alle esigenze quotidiane.
La classificaTop 500 di Jack Dongarra, aggiornata due volte all’anno, testimonia questa incessante competizione tecnologica. Tra i protagonisti del 2024, spicca il supercomputer El Capitan, che ha raggiunto la vetta con una capacità di calcolo di 1.742 exaflop.
Sviluppato presso il Lawrence Livermore National Laboratory negli Stati Uniti, questo sistema utilizza processori AMD di quarta generazione e acceleratori MI300A, garantendo prestazioni straordinarie grazie a un’architettura avanzata basata sul Symmetric Multiprocessing (SMP). L’approccio, paragonabile a un’orchestra in cui i processori collaborano armonicamente condividendo la stessa memoria, rappresenta il culmine della potenza del calcolo parallelo..
Cos’è un Supercalcolatore?
Un supercalcolatore è un sistema informatico progettato per garantire prestazioni di calcolo straordinarie, nettamente superiori a quelle dei computer tradizionali. La sua definizione non è cristallizzata nel tempo, ma si evolve costantemente con i progressi tecnologici. Un sistema considerato all’avanguardia nel 2000 potrebbe oggi essere del tutto obsoleto, a causa dei rapidi avanzamenti dell’informatica.
Queste macchine rivestono un ruolo fondamentale nell’affrontare problemi complessi, tra cui simulazioni scientifiche, analisi di enormi volumi di dati e applicazioni avanzate di intelligenza artificiale. Inoltre, sono strumenti chiave anche nel campo della cybersicurezza, dove la capacità di elaborare dati in tempi rapidi può fare la differenza.
Classificare i Supercalcolatori
I supercalcolatori vengono valutati in base a differenti parametri, tra cui il concetto di application-dependent, ossia il tempo necessario per risolvere un problema specifico. Un sistema può eccellere in un compito ma risultare meno efficiente in un altro, a seconda della natura dell’applicazione.
Dal 1993, la lista Top500 classifica i 500 supercalcolatori più potenti al mondo e viene aggiornata due volte l’anno (giugno e novembre). La classifica si basa sul benchmark LINPACK, che misura la capacità di risolvere sistemi di equazioni lineari, impiegando il parametro chiave Rmax (prestazione massima ottenuta).
Nell’edizione di novembre 2024, El Capitan domina al primo posto, essendo il terzo sistema a superare la soglia dell’exascale computing (10^18 FLOPS), seguito da Frontier e Aurora. Il supercomputer europeo Leonardo, ospitato dal Cineca di Bologna, si posiziona al nono posto, con 1,8 milioni di core, un Rmax di 241,20 PFlop/s (milioni di miliardi di operazioni al secondo) e una prestazione teorica di picco di 306,31 PFlop/s.
Viaggio nei Benchmark del Calcolo
Fin dagli albori dell’era informatica, il benchmarking ha rappresentato uno strumento fondamentale per valutare le prestazioni dei computer. Il primo esempio risale al 1946, quando l’ENIAC utilizzò il calcolo di una traiettoria balistica per confrontare l’efficienza tra uomo e macchina, prefigurando un lungo percorso evolutivo nel campo della misurazione computazionale.
Negli anni ‘70, il benchmarking assunse una forma più sistematica. Nel 1972 nacque Whetstone, uno dei primi benchmark sintetici, ideato per misurare le istruzioni per secondo -una metrica chiave per comprendere come una macchina gestisse operazioni di base – e successivamente aggiornato per includere le operazioni in virgola mobile. Nel 1984 arrivò Dhrystone, concepito per valutare le prestazioni nei calcoli interi; questo benchmark fu adottato come standard industriale fino all’introduzione della suite SPECint, che offrì una misurazione più aderente ai carichi di lavoro reali.
Parallelamente, nel 1979, Jack Dongarra introdusse Linpack, un benchmark dedicato alla risoluzione di sistemi di equazioni lineari e divenuto un riferimento nel calcolo scientifico. Questo strumento non solo ispirò lo sviluppo di software come MATLAB, ma pose anche le basi per l’evoluzione dei benchmark destinati ai supercomputer. Con l’evolversi delle esigenze computazionali, Linpack si trasformò nell’HPL (High Performance Linpack), attualmente utilizzato per stilare la prestigiosa classifica Top500, che evidenzia il continuo progresso nella misurazione della potenza di calcolo.
Il panorama dei benchmark si è ulteriormente arricchito con l’introduzione di strumenti come HPC Challenge e i NAS Parallel Benchmarks. L’era del machine learning ha, infine, visto la nascita di benchmark specifici per il training e l’inferenza, capaci di valutare le prestazioni sia di dispositivi a risorse limitate sia di potenti data center. Questi strumenti sono nati in risposta a precise esigenze operative e di mercato, dimostrando come ciascuna innovazione nel campo del benchmarking risponda a uno stadio evolutivo ben definito della tecnologia.
Avendo tracciato in modo cronologico l’evoluzione dei benchmark, appare naturale approfondire anche i modelli teorici che hanno permesso lo sviluppo di tali tecnologie. In questo contesto, la tassonomia di Flynn è essenziale, in quanto ha gettato le basi per l’architettura parallela moderna e continua a guidare la progettazione dei sistemi informatici odierni.
Data Center
Tassonomia di Flynn e l’Ascesa del SIMT
Per comprendere meglio il funzionamento di CUDA, è utile considerare la Tassonomia di Flynn, un sistema di classificazione delle architetture dei calcolatori proposto da Flynn nel 1966. Questo schema classifica i sistemi di calcolo in base alla molteplicità dei flussi di istruzioni (instruction stream) e dei flussi di dati (data stream) che possono gestire, risultando in quattro categorie principali:
- SISD (Single Instruction, Single Data): Un computer sequenziale in cui l’unità di elaborazione esegue un’unica istruzione su un singolo flusso di dati in ogni ciclo di clock. Questa architettura, molto datata, era tipica dei vecchi sistemi a CPU singola.
- SIMD (Single Instruction, Multiple Data): Un tipo di computer parallelo nel quale le unità di elaborazione possono eseguire la stessa istruzione su diversi flussi di dati in ogni ciclo di clock. Architettura impiegata in array di processori e pipeline vettoriali, è utilizzata anche nelle GPU moderne.
- MISD (Multiple Instruction, Single Data): Diversi processori eseguono istruzioni differenti sullo stesso dato. Questa configurazione è estremamente rara e principalmente teorica.
- MIMD (Multiple Instruction, Multiple Data): Diverse unità di elaborazione eseguono istruzioni differenti su dati distinti. Questa architettura è utilizzata nei supercomputer più avanzati e nei computer multicore moderni.
Le GPU NVIDIA adottano un modello denominato SIMT (Single Instruction, Multiple Thread), nel quale una singola istruzione viene eseguita da numerosi thread in parallelo. Ciascun thread, però, può seguire un percorso leggermente diverso a seconda dei dati e delle condizioni locali. Questo approccio combina l’efficienza del SIMD con la flessibilità del MIMD, risultando estremamente efficace per risolvere problemi complessi in tempi ridotti.
L’evoluzione degli HPC: Ibridismo ed Eterogeneità
Dalle prime architetture MIMD – con memoria condivisa o distribuita – il calcolo ad alte prestazioni (HPC) ha subito una trasformazione profonda. Oggi, i supercomputer non si basano più su un’unica tipologia architetturale, ma su sistemi sempre più complessi e flessibili. Spesso composti da componenti molto diversi tra loro. Questo approccio, detto eterogeneo, permette di unire più paradigmi di elaborazione in un unico sistema, sfruttando al massimo i punti di forza di ciascun componente.
Un esempio evidente è l’uso combinato di CPU e GPU, che rappresentano due filosofie di calcolo diverse ma complementari. Non a caso, le unità grafiche -un tempo riservate esclusivamente al rendering grafico – oggi sono il fulcro dell’HPC e si trovano persino nei laptop di fascia media, rendendo queste tecnologie accessibili a un pubblico molto più ampio.
Se la tassonomia di Flynn continua a offrire un utile punto di partenza per classificare i modelli di parallelismo (SISD, SIMD, MISD, MIMD), la realtà attuale va oltre: oggi si parla di sistemi ibridi, dove coesistono differenti stili di parallelismo all’interno dello stesso sistema, e di sistemi eterogenei, in cui unità di calcolo con architetture diverse collaborano sinergicamente.
Questa evoluzione ha aperto nuove frontiere in termini di prestazioni, ma ha anche aumentato la complessità nella valutazione e nel benchmarking dei sistemi, rendendo le misurazioni più difficili e meno lineari.
CUDA
Verso la fine degli anni 2000, NVIDIA ha rivoluzionato il calcolo parallelo introducendo CUDA (Compute Unified Device Architecture). Secondo la letteratura scientifica, CUDA è stata lanciata ufficialmente nel 2006, in concomitanza con l’architettura G80, la prima a supportare pienamente questo modello di programmazione general-purpose su GPU.
CUDA ha reso possibile l’impiego delle GPU per compiti di calcolo generale (GPGPU), superando il loro utilizzo tradizionale nel solo rendering grafico. Grazie al supporto per linguaggi ad alto livello come C, C++ e Fortran, ha semplificato significativamente la programmazione parallela per ricercatori e sviluppatori.
Il paradigma CUDA consente di suddividere problemi complessi in migliaia di task paralleli, eseguiti simultaneamente sulle numerose unità di elaborazione delle GPU. Questo approccio ha avuto un impatto profondo in molteplici ambiti, dalle simulazioni scientifiche all’intelligenza artificiale, fino all’analisi massiva dei dati. L’introduzione della serie G80 ha segnato un punto di svolta, consolidando il modello di calcolo unificato su GPU e aprendo la strada a nuove soluzioni hardware e software.
Il successo di CUDA ha in seguito stimolato la nascita di standard aperti come OpenCL, sviluppato dal Khronos Group e rilasciato nel 2008. OpenCL rappresenta un’alternativa cross-platform e cross-vendor per il calcolo parallelo su hardware eterogeneo, inclusi GPU, CPU e FPGA.
Dal punto di vista architetturale, CUDA si basa sul modello di programmazione SIMT (Single Instruction, Multiple Threads), che consente l’esecuzione di una stessa istruzione su migliaia di thread paralleli, ciascuno con dati e percorsi di esecuzione distinti. Un programma CUDA è composto da due sezioni: una che gira sulla CPU (host) e una che viene eseguita sulla GPU (device). La parte parallelizzabile del codice viene lanciata sulla GPU come kernel, una funzione che viene eseguita da un elevato numero di thread secondo il modello SPMD (Single Program, Multiple Data).
GPU CUDA
Le GPU CUDA sono organizzate in array di Streaming Multiprocessors (SM), unità operative che integrano CUDA Core, una memoria condivisa veloce e uno scheduler per gestire e distribuire i task. Questi SM permettono di ottenere elevate prestazioni nel calcolo parallelo, grazie anche a una memoria globale ad alta velocità (GDDR) con ampia banda passante.
CUDA C/C++, estensione dei linguaggi C e C++ realizzata da NVIDIA, consente agli sviluppatori di accedere direttamente alle risorse parallele delle GPU, abbattendo le barriere che tradizionalmente ostacolavano l’adozione della programmazione parallela. Questo ha favorito la crescita delle applicazioni GPGPU ad alte prestazioni in ambito scientifico, industriale e accademico.
In sintesi, CUDA ha segnato un vero cambio di paradigma nel calcolo parallelo, rendendo accessibile a un pubblico più ampio la possibilità di sfruttare la potenza delle GPU per applicazioni general-purpose e aprendo la strada a innovazioni nei settori più avanzati dell’informatica.
Da GPU a GPGPU: Il Potere del Calcolo Parallelo
L’evoluzione delle GPU ha portato alla nascita delle GPGPU (General-Purpose GPU), trasformandole da unità dedicate al rendering grafico in acceleratori di calcolo parallelo complementari alle CPU.
Grazie alla loro architettura con molti core semplici, le GPGPU eccellono nell’elaborazione simultanea di grandi volumi di dati, offrendo vantaggi significativi:
- Scalabilità: Permettono l’integrazione di un numero elevato di core.
- Efficienza: Bilanciano il carico di lavoro tra i core in maniera uniforme.
- Velocità: Accelerano i calcoli ripetitivi e paralleli.
A differenza delle CPU, ottimizzate per gestire compiti complessi con pochi core potenti e una cache veloce, le GPGPU brillano in operazioni ripetitive. La loro struttura, paragonabile a una squadra di numerosi operai che lavorano simultaneamente su un mosaico di dati, consente di completare attività in tempi significativamente ridotti.
Tuttavia, le GPGPU non sostituiscono le CPU, ma le supportano, gestendo compiti paralleli e migliorando l’efficienza complessiva in campi come l’intelligenza artificiale e l’analisi dei dati.
Streaming Multiprocessors: La Fucina del Parallelismo
Gli Streaming Multiprocessors (SM) rappresentano le unità operative fondamentali all’interno di un acceleratore grafico. Ogni SM include i CUDA Core, una sezione di memoria condivisa e uno scheduler dedicato, incaricato di organizzare e distribuire il lavoro tra i core.
A differenza delle CPU, che adottano un’architettura MIMD per gestire compiti eterogenei, le GPU sfruttano gli SM per eseguire in parallelo operazioni ripetitive su grandi insiemi di dati, facendo affidamento su una memoria globale ad alta velocità. Questa organizzazione consente di ottenere un’elevata efficacia computazionale nelle applicazioni di calcolo parallelo, come evidenziato da studi pubblicati su riviste scientifiche certificate, tra cui IEEE e ACM.
Breve Storia dell’Evoluzione della GPU
Dai controller VGA ai processori grafici programmabili
All’inizio dell’era informatica, il concetto stesso di GPU non esisteva. La grafica sui PC era gestita da un semplice controller VGA (Video Graphics Array), un gestore di memoria e generatore di segnale video collegato a una memoria DRAM.
Negli anni ’90, grazie ai progressi nella tecnologia dei semiconduttori, questi controller iniziarono a integrare capacità di accelerazione grafica tridimensionale: hardware dedicato per la preparazione dei triangoli, la rasterizzazione (scomposizione dei triangoli in pixel), il mapping delle texture e lo shading, ovvero l’applicazione di pattern o sfumature di colore.
Con l’inizio degli anni 2000, il processore grafico divenne un chip singolo capace di gestire ogni fase della pipeline grafica, una prerogativa fino ad allora esclusiva delle workstation di fascia alta. A quel punto il dispositivo assunse il nome di GPU, per sottolineare la sua natura di vero e proprio processore specializzato.
Nel tempo, le GPU si sono evolute in acceleratori programmabili massivamente paralleli, dotati di centinaia di core e migliaia di thread, capaci di elaborare non solo grafica ma anche compiti computazionali generici (GPGPU). Sono state inoltre introdotte istruzioni specifiche e hardware dedicato alla gestione della memoria, insieme a strumenti di sviluppo che permettono di programmare queste unità con linguaggi come C e C++, rendendo le GPU veri e propri processori multicore altamente parallelizzati.
In sintesi, l’evoluzione dal Colossus fino alle moderne unità grafiche e architetture ibride racconta un percorso tecnologico dinamico e in continua trasformazione. Queste innovazioni non solo hanno rivoluzionato il modo di elaborare dati, ma stanno anche ridefinendo le possibilità in settori strategici come l’intelligenza artificiale e la cybersicurezza e la crittografia.
Guardando al futuro, è evidente che l’integrazione di paradigmi eterogenei continuerà a guidare lo sviluppo di sistemi sempre più potenti ed efficienti, ponendo sfide avvincenti per ricercatori, ingegneri e sviluppatori di tutto il mondo.
Riferimenti bibliografici:
Lezioni di Calcolo Parallelo, Almerico Murli
CUDA C++ Best Practices Guide
CUDA C Programming, John Cheng
L'articolo La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA proviene da il blog della sicurezza informatica.
Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza
Un gruppo di aggressori informatici ha iniziato a sfruttare la piattaforma Gamma, uno strumento per la creazione di presentazioni basato sull’intelligenza artificiale, in un nuovo attacco di phishing in più fasi. Durante l’attacco, le vittime vengono reindirizzate a una falsa pagina di accesso a Microsoft SharePoint, dove vengono rubate le loro credenziali.
I ricercatori di Abnormal Security segnalato che il file PDF allegato all’e-mail è in realtà un collegamento a una presentazione Gamma camuffata da visualizzatore di documenti protetto. Cliccando sul collegamento, la vittima viene indirizzata a una pagina intermedia che imita un servizio Microsoft ed è protetta dal CAPTCHA di Cloudflare Turnstile. Ciò crea un’apparenza di legittimità e riduce la probabilità di un’analisi di sicurezza automatizzata.
Il passaggio successivo consiste nel reindirizzamento a una pagina di accesso falsa di Microsoft SharePoint, dove gli aggressori utilizzano il meccanismo Adversary-in-the-Middle (AitM) per verificare le credenziali in tempo reale, visualizzando un messaggio di errore se viene inserita una password errata.
Tali attacchi sono noti come Living-off-Trusted-Sites (LoTS) e sfruttano servizi online legittimi per ospitare contenuti dannosi, aggirando così i controlli SPF, DKIM e DMARC. Utilizzando strumenti meno noti come Gamma, gli aggressori eludono i sistemi di rilevamento automatico e ingannano gli utenti. La piattaforma di presentazione diventa non solo un mezzo di mascheramento, ma anche parte di un’intera catena di reindirizzamenti che nascondono il vero scopo dell’attacco.
Gli attacchi di phishing stanno diventando sempre più sofisticati e sfruttano abilmente strumenti legittimi e servizi affidabili per mascherare schemi dannosi. L’incidente di Gamma dimostra che anche tecnologie apparentemente innocue possono essere trasformate in parte di una catena di hacking attentamente progettata.
I meccanismi di difesa concepiti per affrontare minacce semplici sono impotenti contro gli attacchi che si basano sulla fiducia in marchi noti e su percorsi di reindirizzamento complessi. Ciò evidenzia la necessità di una revisione continua degli approcci alla sicurezza informatica e di un maggiore controllo sull’uso non standard dei servizi familiari.
L'articolo Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza proviene da il blog della sicurezza informatica.
Intelligenza Integrata: La Magia dell’AI che Svela il Genio della Biologia
Con il rapido evolversi delle minacce informatiche, la cybersecurity deve sviluppare soluzioni sempre più avanzate e resilienti. Un approccio innovativo consiste nella trasformazione e nell’evoluzione dell’intelligenza artificiale verso un’intelligenza ispirata a quella biologica, un modello che applica i principi e i processi della biologia alla sicurezza informatica.
Questo approccio si ispira a meccanismi naturali, come l’adattamento degli organismi viventi, il sistema immunitario e le reti neurali biologiche. Queste ultime, costituite da interconnessioni interneuronali nel cervello e nel sistema nervoso periferico, sono in grado elaborare informazioni, anche sofisticate, attraverso segnali elettrici e neurochimici supportando funzioni fondamentali come apprendimento, memoria ed adattamento.
Negli ultimi anni, grazie all’impiego di modelli neuromorfici come i chip Loihi di Intel si stanno sviluppando architetture hardware che replicano fedelmente il comportamento del cervello umano, potenziando i sistemi di difesa attiva.
L’intelligenza biologica
Questo tipo di intelligenza utilizza l’osservazione e l’imitazione di questi processi per progettare sistemi di difesa informatica più robusti ed efficaci. Grazie alla capacità di adattamento, resilienza e risposta rapida dei meccanismi biologici, è possibile integrare queste dinamiche con le tecnologie avanzate per creare soluzioni capaci di identificare, prevenire e contrastare le minacce emergenti nel cyberspazio, garantendo flessibilità ed efficienza in un contesto in costante evoluzione.
L’intelligenza biologica è la capacità degli organismi viventi di adattarsi, apprendere e rispondere agli stimoli esterni in modo efficace e resiliente.
Applicata alla cybersecurity, questa idea ispira la creazione di sistemi informatici avanzati, in grado di:
Adattamento Dinamico
Proprio come gli organismi viventi si adattano ai cambiamenti ambientali, I sistemi di sicurezza informatica necessitano di una evoluzione continua per fronteggiare costantemente le nuove minacce in modo fattivo.
Oggi, grazie all’uso di modelli di AI generativa, come GPT-4 e Claude, integrati in strumenti SIEM (Security Information and Event Management), si riescono a generare automaticamente piani di risposta agli incidenti adattivi.
Apprendimento Continuo
Così come il cervello umano impiega i sistemi corticali, sottocorticali e limbici per affrontare e gestire le esperienze emotive quotidiane, allo stesso modo la cybersecurity elabora, a velocità straordinarie, dati ed esperienze, sia positive che negative, per adattare ed evolvere costantemente le proprie difese.
Le piattaforme XDR (Extended Detection and Response) ora integrano modelli di reinforcement learning per migliorare la precisione nel rilevamento delle minacce
microsoft.com/it-it/security/b…
Resilienza alle Minacce
Seguendo l’esempio dei sistemi biologici, noti per la loro capacità di resistere, aggiornando la produzione di nuovi anticorpi e rirendersi rapidamente pi efficaci di prima, così le infrastrutture informatiche devono essere progettate per garantire continuità operativa anche in caso di attacchi o malfunzionamenti.
Applicazioni dell’Intelligenza Biologica nella Cybersecurity
Sistemi Immunitari Artificiali (AIS)
Sono modelli ispirati al sistema immunitario umano, creati per rilevare e fermare le minacce informatiche. Un esempio importante è l’algoritmo delle cellule dendritiche (DCA), rilevando e reagendo agli agenti patogeni attivano la risposta immunitaria contro le infezioni. Analogamente il DCA nella cybersecurity offre una protezione attiva e dinamica, individuando e analizzando le anomalie in tempo reale per contrastare intrusioni e attacchi.
Gli Algoritmi Evolutivi
Ispirati alla selezione naturale ed all’evoluzione, sono utilizzati per risolvere problemi complessi attraverso un processo di ottimizzazione. In cybersecurity, questi algoritmi vengono impiegati per creare chiavi crittografiche sicure e firewall adattivi che evolvendosi autonomamente rispondono alle nuove minacce ed agli attacchi.
Recenti studi hanno dimostrato che l’algoritmo “NEAT” (NeuroEvolution of Augmenting Topologies) può ottimizzare dinamicamente la struttura di reti neurali difensive contro ransomware polimorfici.
Biometria Comportamentale
Attraverso l’analisi dei comportamenti distintivi degli utenti, come la velocità di digitazione e i movimenti del mouse, è possibile sviluppare sistemi di autenticazione continua in grado di rilevare accessi non autorizzati. Questi sistemi identificano anomalie confrontando i comportamenti rilevati con i modelli abituali degli utenti, garantendo in tempo reale un avanzato livello di sicurezza.
Vantaggi dell’Approccio Biologico
- Adattabilità: I sistemi ispirati alla biologia possono modificare le proprie difese in tempo reale, affrontando efficacemente minacce sconosciute o inaspettate.
- Scalabilità: Come gli ecosistemi naturali, queste soluzioni possono essere implementate su larga scala senza perdere efficacia, adattandosi a infrastrutture di diverse dimensioni e complessità.
- Resilienza: Ispirandosi alla capacità degli organismi viventi di sopravvivere e prosperare in ambienti ostili, i sistemi di cybersecurity biologicamente ispirati sono progettati per resistere a guasti e attacchi, garantendo una continuità operativa anche in condizioni avverse.
Sfide e Considerazioni
Nonostante i notevoli vantaggi, l’integrazione dell’intelligenza biologica nella cybersecurity solleva alcune problematiche significative che meritano attenzione:
- Complessità: La strutturazione dei processi biologici richiede una competenza avanzata in molteplici discipline, tra cui biologia, informatica e ingegneria. L’approccio interdisciplinare necessario può risultare difficile da implementare e, talvolta, difficile da coordinare.
- Risorse Computazionali: Alcuni algoritmi ispirati ai processi biologici possono essere estremamente esigenti in termini di risorse, necessitando di hardware avanzato e comportando tempi di elaborazione lunghi, il che può limitare la loro applicabilità pratica in scenari ad alta richiesta.
L’emergere di hardware quantistico e neuromorfico mira a ridurre questi limiti nel prossimo decennio.
Privacy e Sicurezza dei Dati: L’uso di dati biometrici e comportamentali solleva legittime preoccupazioni in merito alla protezione delle informazioni personali. La gestione di tali dati impone sfide relative alla conformità con le normative sulla privacy e alla garanzia che le informazioni sensibili siano adeguatamente protette contro l’accesso non autorizzato.
Prospettive Future
L’integrazione dell’intelligenza biologica nella cybersecurity sembra destinata a crescere, con sviluppi che potrebbero aprire nuove frontiere, sebbene non senza sollevare alcune perplessità.
- Sistemi di Auto-Guarigione: Si prevede la creazione di reti informatiche in grado di identificare e correggere autonomamente le proprie vulnerabilità, ispirandosi ai processi di rigenerazione biologica. Resta da valutare se questi sistemi possano davvero gestire in modo efficace e sicuro le complessità e le variabili delle minacce in continua evoluzione.
- Ecosistemi Digitali Resilienti: La costruzione di infrastrutture che imitano la biodiversità degli ecosistemi naturali per migliorare la resistenza alle minacce cibernetiche potrebbe rappresentare una soluzione interessante. Tuttavia, la realizzazione di tali ecosistemi digitali comporta rischi legati alla loro complessità e alla difficoltà di prevedere tutte le possibili interazioni tra i diversi elementi.
- Interfacce Uomo-Macchina Evolute: Lo sviluppo di interazioni più naturali ed efficienti tra esseri umani e sistemi informatici, basate sulla comprensione dei processi cognitivi e comportamentali, offre indubbi vantaggi. Tuttavia, la sfida risiede nell’assicurarsi che queste interfacce siano veramente sicure e in grado di rispondere in modo adeguato alla varietà dei comportamenti umani, senza compromettere la privacy o la sicurezza.
L’impiego di BCI (Brain-Computer Interfaces) è già in fase avanzata nei laboratori di Neuralink e Blackrock Neurotech https://neuralink.com
Conclusione
L’approccio biologico alla cybersecurity rappresenta un’interessante prospettiva innovativa per rispondere alle sfide delle minacce informatiche moderne. Ispirandosi ai processi naturali, offre il potenziale per sviluppare sistemi più adattivi, resilienti ed efficaci, capaci di rispondere in modo dinamico alle nuove vulnerabilità.
L’adozione concreta di queste soluzioni dipenderà fortemente dalla collaborazione tra settore pubblico, accademico e industriale, in particolare per bilanciare progresso, etica e sostenibilità. Pertanto, vista la complessità delle interazioni tra biologia ed informatica, emergono numerosi interrogativi su come tradurre i principi biologici in soluzioni tecnologiche applicabili.
Non possiamo sottovalutare le enormi difficoltà nel creare modelli che davvero emulino la complessità dei sistemi biologici, né le sfide etiche e pratiche che tale integrazione impone. Per questo, è fondamentale un impegno costante e multidisciplinare, che unisca esperti di etica, biologia, informatica e sicurezza, per affrontare questi ostacoli e affinare le soluzioni del futuro, garantendo il loro impatto duraturo e positivo.
L'articolo Intelligenza Integrata: La Magia dell’AI che Svela il Genio della Biologia proviene da il blog della sicurezza informatica.
Vaticano blindato: il conclave 2025 si prepara alla guerra digitale per eleggere il nuovo Papa
📌 Link all'articolo : redhotcyber.com/post/vaticano-…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
Vaticano blindato: il conclave 2025 si prepara alla guerra digitale per eleggere il nuovo Papa
Nel 2025 il Vaticano affronterà il conclave più sorvegliato della storia: tra droni, AI e satelliti spia, ogni misura è presa per proteggere l’elezione del nuovo Papa.Redazione RHC (Red Hot Cyber)
Cybersecurity & cyberwarfare reshared this.
securityaffairs.com/176886/mal…
#securityaffairs #hacking #russia #malware
Android spyware hidden in mapping software targets Russian soldiers
A new Android spyware was discovered in a fake Alpine Quest app, reportedly used by Russian soldiers for war zone planning.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA
📌 Link all'articolo : redhotcyber.com/post/la-rivolu…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l'IA
La rivoluzione parallela , da cos'è un supercalcolatore alla loro evoluzione e come si classificano. La Top500 dei super calcolatori.Carlo Denza (Red Hot Cyber)
reshared this
Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza
📌 Link all'articolo : redhotcyber.com/post/gamma-sha…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy #engineering #intelligence #intelligenzaartificiale #informationsecurity #ethicalhacking #dataprotection #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #infosecurity
Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza
Una falsa presentazione su Gamma porta a un finto SharePoint. Risultato? Ti rubano le credenziali con classe.Redazione RHC (Red Hot Cyber)
reshared this
unruhe
in reply to informapirata ⁂ • • •informapirata ⁂ reshared this.
informapirata ⁂
in reply to unruhe • • •@unruhe sottovaluti il fatto che il malessere dei lavoratori è il primo obiettivo dei datori di lavoro e dei dirigenti che preferiscono assumere... 😈
@lavoro
Lo Illetterato Lettore reshared this.
Lo Illetterato Lettore
in reply to unruhe • • •Ma è innegabile che l'opportunità che il Covid ha dato alle aziende e ai loro dipendenti, è stata sprecata. Volutamente, nella stragrande maggioranza dei casi.
informapirata ⁂ reshared this.
unruhe
in reply to Lo Illetterato Lettore • • •Alessandro
in reply to Lo Illetterato Lettore • • •Io conosco un sacco di persone (software engineers) totalmente incapaci di lavorare full remote.
informapirata ⁂
in reply to Alessandro • • •@alebaffa non è così: se non ci sono ostacoli di natura strutturale (mancanza di connettività, ambiente domestico non adatto, etc) l'insuccesso del lavoro remoto dipende SEMPRE dal dirigente o dal quadro responsabile, altrimenti qualsiasi lavoratore è in grado di operare da remoto come dall'ufficio.
Il lavoro da remoto è il miglior misuratore dell'incapacità di un capo
@illetteratolettore @unruhe @lavoro
Alessandro
in reply to informapirata ⁂ • • •informapirata ⁂
in reply to Alessandro • • •@alebaffa l'esperienza personale non è significativa in termini statistici, ma comprendo che possano esserci contesti divergenti, ma se un lavoro è remotizzabile, chi non sa lavorare da remoto non sa lavorare neanche in presenza.
Se invece chi sa lavorare in presenza non riesce a lavorare da remoto, allora il problema è nell'organizzazione del lavoro.
La realtà è che il lavoro remoto ha addirittura migliorato i processi di quei contesti meno strutturati
@illetteratolettore @unruhe @lavoro
informapirata ⁂
in reply to informapirata ⁂ • • •@alebaffa se poi hai degli esempi su cui riflettere insieme, potresti portarli nella discussione. Sono certo che per lo più si tratterà di resistenze al cambiamento che si verificherebbero ogni qualvolta l'organizzazione del lavoro debba essere modificata.
E l'organizzazione è sempre responsabilità del capo.
Questo è il motivo per cui sono scettico sull'attribuzione della responsabilità al lavoratore
@illetteratolettore @unruhe @lavoro
Alessandro
in reply to informapirata ⁂ • • •Alessandro
in reply to Alessandro • • •Ma per default si va in ufficio, oppure solo N-volte a settimana anziche' ogni giorno.
informapirata ⁂
in reply to Alessandro • • •@alebaffa il lavoro da remoto non è una concessione al lavoratore, ma un modello organizzativo in cui il lavoratore guadagna certamente tempo e benessere, ma è l'azienda che consegue il maggiore guadagno: risparmia in affitti e facility management, guadagna in tracciamento dei processi, in monitoraggio e, soprattutto, si avvantaggia dell'individuazione di un management più adeguato.
Le aziende migliori più produttive infatti vanno tutte sul lavoro remoto!
@illetteratolettore @unruhe @lavoro
Alessandro
in reply to informapirata ⁂ • • •Si, ma qui non consideri la perdita in produttività, con conseguente time-to-market piu' lenta e l'aumento del rischio di perdere talenti a causa di un minore "legame" alla cultura aziendale. Nel medio-lungo termine questi sono costi che fanno affondare le aziende.
Ripeto: non e' cosi semplice come la mettete voi. Ci sono tantissimi aspetti in piu' da considerare. E le aziende iniziano a rendersene conto pesantemente.
informapirata ⁂
in reply to Alessandro • • •@alebaffa il time-to-market del lavoro remoto è maggiore di quello in presenza solo se il processo è scadente, altrimenti è mimore
L'attaccamento all'azienda è un problema serio, ma è un processo irreversibile che il lavoro remoto ha assecondato: è stato invece determinato solo dall'approccio voluto dalle aziende che hanno considerato i lavoratori come commodities.
Rinchiudere i lavoratori in ufficio farà solo aumentare incazzatura e sindacalizzazione
@illetteratolettore @unruhe @lavoro
Ciubekka
in reply to informapirata ⁂ • • •Lavoratori Tech reshared this.
Maurizio Lo Nobile
in reply to informapirata ⁂ • • •Alcune aziende pubblicano ormai annunci di lavoro solo in full presenza alla faccia del 2025 e pur professandosi come "aziende pro benessere dei dipendenti"
Simon Perry likes this.
Lavoratori Tech reshared this.
Simon Perry
in reply to Maurizio Lo Nobile • •@Maurizio Lo Nobile
nel mondo civile, invece (vedi Spagna), questo tipo di lavoro è in aumento e basta guardare il sito "tecnoempleo" per rendersene conto da soli.
Notare anche le retribuzioni, più alte rispetto all'Italia, ma quello ormai va sans dire.
@informapirata ⁂
informapirata ⁂ likes this.
Lavoratori Tech reshared this.
Dio Ateo
in reply to informapirata ⁂ • • •Lavoratori Tech reshared this.