Per capire quanto sia attuale il tema, in questo rapporto del Parlamento Europeo (
www.europarl.europa.eu/RegData/etudes/ST...U(2020)634452_EN.pdf)
The ethics of artificial intelligence: Issues and initiatives (2020) si parla anche dei pericoli psicologici dell'instaurare una relazione di amicizia con un'intelligenza artificiale, legati più che altro al pericolo che avvenga manipolazione, che la mentalità di una persona possa essere cambiata da questa relazione, rendendoci più violenti, meno collaborativi, facendoci perdere la percezione della vita umana, che cambi il nostro modo di trattare gli altri.
Pensando al primo racconto dei libro qui dice:
should we worry about the effect of children being rude to digital assistants such as Alexa or Siri? Does this affect how they view or treat others?
In merito ai diritti si chiedono:
One way of programming AI systems is 'reinforcement learning', where improved performance is reinforced with a virtual reward. Could we consider a system to be suffering when its reward functions give it negative input? Once we consider machines as entities that can perceive, feel and act, it is no huge leap to ponder their legal status. Should they be treated like animals of comparable intelligence? Will we consider the suffering of 'feeling' machines?
La maggior parte della ricerca afferma che dovrebbero essere trattati come degli artefatti, con la responsabilità dei loro errori che ricade sul produttore, l'utilizzatore o il proprietario, e che bisognerebbe evitare di conferigli dei caratteri umani come la sofferenza. Ma se un'azione non può essere predetta perché la AI si sviluppa da sola ed è modificata anche dall'interazione con l'ambiente, è giusto che questi siano responsabili?
In merito alla possibilità che la AI prenda in controllo:
As a way to address some of the threats of artificial intelligence, researchers have proposed ways to stop an AI system before it has a chance to escape outside control and cause harm. A so-called 'big red button', or 'kill switch' would enable human operators to interrupt or divert a system, while preventing the system from learning that such an intervention is a threat. However, some commentators fear that a sufficiently advanced AI machine could anticipate this move and defend itself by learning to disable its own 'kill switch'. e qui vengono proposte varie opzioni.
Naturalmente ho riportato le parti che sono coerenti con il libro, però le AI più rischiose secondo questo rapporto non sono robot umanoidi ma ad esempio quelle usate in ambito medico, le macchine che si guidano da sole, la tecnologia militare.