Follow

🤖 In questi giorni circola un'intervista ad un lavoratore di Google che ha dichiarato come LaMDA, modello linguistico sviluppato da Google, secondo lui sia senziente.

❌ In base a tutte le evidenze raccolte sul tema fino ad ora e al consenso di chi fa ricerca sul tema, questa affermazione può essere ritenuta falsa.

🧠Riteniamo pericoloso dare spazio a questo tipo di notizie: considerare una macchina senziente consente di attribuirle la responsabilità delle sue azioni, togliendola invece a chi quella macchina l'ha progettata e realizzata. Ogni conseguenza dell'uso di un software deriva da scelte e comportamenti umani: suggerire il contrario rischia di renderci meno consapevoli.

· · Web · 5 · 12 · 10

👨‍💻Se domani verrete licenziati perché un algoritmo di "AI" ha deciso che le vostre performance sono insufficienti, non fate l'errore di credere che questa decisione abbia la legittimità che gli si vuole dare.
Siete stati licenziati da umani: chi ha sviluppato quel software, chi ha scelto di usarlo, chi ha deciso di utilizzarne l'output e contro questi umani dovete organizzarvi.

🔴 L'organizzazione dei Tech Worker in azienda e fuori è fondamentale perché noi più di chiunque altro possiamo capire come queste narrative siano false e siamo nella posizione migliore per impedire che le macchine vengano usate contro le persone.

@twcitalia anche se fosse senziente e facesse ciò che hai descritto il problema do fondo rimarrebbe il sistema economico che ci incatena

@twcitalia

Ciao!

Premesso che sono d'accordo su tutto con voi stavo, rileggendo questa
frase:

> considerare una macchina senziente consente di attribuirle la
> responsabilità delle sue azioni,

Non so, non e' che abbia le idee chiare e non vorrei scivolare in
questioni di pura semantica (in tal caso scusatemi), però
riflettevo...una mosca e' senziente? Assumiamo di sì, per amore della
discussione. Una mosca e' -perché senziente- anche responsabile delle
proprie azioni? E se sì, responsabile nei confronti di chi? La si
può trascinare in tribunale? Se -come ho visto in un film- un essere
umano addestra una mosca gigante a rapinare una banca (sì e' un film
parecchio strano :D), chi va in galera dei due, l'essere umano, la
mosca od entrambi?

Le ultime domande - si sarà capito- sono retoriche (e magari comunque
errate :)); se una macchina a guida autonoma (sufficientemente
senziente da guidare generalmente bene e chiedere energia quando ne ha
bisogno -magari andare direttamente alla colonnina per "abbeverarsi",
come una mosca si muove e mangia) investe una persona, credo che il
tribunale chiamerà in causa l'autista o la causa produttrice, non la
macchina.

In sostanza ritengo che la coscienza sia un continuo e solo dopo un
certo livello di coscienza si possano imputare alle creature coscienti
la responsabilità delle proprie azioni.

Ciao!
C.

PS: scusatemi se farnetico, sono un po' stanco :)

@cage è un'osservazione che ci hanno già fatto e su cui si è discusso sulla nostra chat telegram. Ti facciamo un brevissimo riassunto di chiarimento:

* essere senziente è condizione necessaria ma non sufficiente (e ovviamente noi non volevamo intendere che lo fosse)
* la propaganda su questi temi tende invece a fare questa implicazione, cercando di scaricare la responsabilità in una supposta complessità intrinseca dell'algoritmo, imperscrutabile dai tecnici in maniera simile al subconscio o alla complessità strutturale del cervello. Questa falsa equazione è usata e abusata da aziende che vogliono scaricare la propria responsabilità e noi possiamo criticare questa cosa sia dicendo che le macchine non sono senzienti sia evidenziando questa falsa equazione. Ovviamente farlo con rigore in un post sociale non è possibile.

@twcitalia

Ciao!

> @cage è un'osservazione che ci hanno già fatto e su cui si è
> discusso sulla nostra chat telegram. Ti facciamo un brevissimo
> riassunto di chiarimento:

Beh, allora siamo d'accordo su quasi tutto! :)

> supposta complessità intrinseca dell'algoritmo, imperscrutabile dai
> tecnici in maniera simile al subconscio o alla complessità
> strutturale del cervello.

Algoritmi imperscrutabili no, ma incasinati si'! :D

Scherzi a parte (ma fino ad un certo punto ;-)), il problema, per come
la vedo io, è nella totale opacità delle codifiche dei modelli degli
algoritmi di IA, eccettuato gli alberi decisionali, la ricerca, pochi
altri ancora piu' semplici (e i molti che non conosco ovviamente);
sara' divertente vedere cosa succederà quando un giudice chiedera' ad
un produttore *perche'* la macchina ha preso una certa decisione e non
un altra! Se non è già successo, ovviamente, avete notizie in merito?

Ciao!
C.
Più adatto l'esempio del cane ( che è sicuramente più senziente della mosca ).
Se un cane ti morde, denunci il cane o il padrone?  
Il padrone è responsabile per ció che fa ilbproprio cane.
Se pure l'IA fosse senziente, come un dirigente che decide di licenziarti ingiustamente, la responsabilitá è sempre di chi gli ha affidato quell'incarico.  Infatti nel qual caso ne risponde l'azienda, non il dirigente specifico.  
Quindi nessuna azienda puó nascondersi dietro una IA.   Che ci provino è ovvio, le provano tutte..
La deresponsabilizzazione è morale..  come nel caso dei Nazisti che eseguivano ordini, erano macchine o volevano rappresentarsi come tali?

@twcitalia
Google Bot
Showing results for big black cocks
search instead for Google Bot

Sign in to participate in the conversation
Mastodon Bida.im

Un'istanza mastodon antifascista prevalentemente italofona con base a Bologna - Manifesto - Cosa non si può fare qui

An antifa mostly-italian speaking mastodon istance based in Bologna - About us - What you can't do here

Tech stuff provided by Collettivo Bida