Se la diligenza comune è l’impegno di energie e mezzi utili per realizzare un certo fine, mentre la diligenza giuridica è, allo stato attuale, l’impegno dovuto dal debitore – cioè il modello “oggettivo” di sforzo volitivo e tecnico a cui il comportamento del debitore deve uniformarsi per realizzare l’interesse altrui -, allora quale dovrebbe essere, un domani, la diligenza dovuta dal robot ? Soprattutto, esiste o sarebbe necessario teorizzare uno schema di diligenza unitario valevole tanto per l’uomo quanto per l’automazione robotica di tipo antropomorfo e non ? Oppure saremo condizionati, anche al riguardo di concezione della diligenza, dagli sviluppi frenetici e spesso imprevedibili della tecnica e dalla conseguente crisi del modello economico attuale, che verrà certamente stanno al crescente ed imperante utilizzo della robotica nei fattori di produzione, nel mercato dei servizi e prima ancora nel mercato del lavoro ?
Non diversamente, nei primi secoli del Novecento, scioperi, instabilità politica internazionale e sopraggiungere dei sistemi industriali di produzione di massa, porteranno i principali sistemi giuridici, anche di base non democratica, a modificare il modello di responsabilità previsto per regolare i rapporti commerciali: da un modello oggettivo puro, senza limiti che si basava sull’assunzione totale e integrale del rischio dell’iniziativa economica da parte dell’imprenditore, a prescindere dalla possibile impossibilità di eseguire l’attività dovuta, si è passati a un modello di responsabilità oggettiva con il limite dell’impossibilità della prestazione dovuta al c.d. caso estraneo e non imputabile all’imprenditore, o più comunemente il caso fortuito o la forza maggiore. Nel sistema attuale della responsabilità giuridica, la diligenza opera, secondo alcuni, come criterio di determinazione del comportamento dovuto e, quindi, di valutazione dell’esattezza della prestazione; mentre, secondo altri fautori di una responsabilità contrattuale basata sulla colpa (cioè sul difetto di diligenza), a tale funzione, che rileva sul piano del contenuto dell’obbligazione, si aggiunge l’altra, di criterio di imputabilità dell’inadempimento. L’inadempimento imputabile, fonte di responsabilità, sussisterebbe soltanto nel caso in cui la mancata esecuzione della prestazione e la sua non eseguibilità dipendano da un difetto di diligenza, dalla negligenza del debitore, ossia dalla colpa.
Quanto più precisamente al concetto di diligenza, la specialità del fenomeno della prestazione robotica, che può dirsi neutro in quanto indichi soltanto che l’attività che costituisce l’oggetto materiale della prestazione (di dare, fare o non fare) sia svolta da un robot, ma che è speciale ove si riconosca che è il robot in quanto tale il vero protagonista del momento attuativo del rapporto obbligatorio, potrebbe forse giustificare, con gli opportuni accorgimenti metodologici, un ritorno a un modello di diligenza “soggettiva”, quale è quello elaborato dalla tradizione romanistica (diligentia quam in suis) per l’esecuzione di attività inerenti a rapporti fondati sulla fiducia, come ad esempio il mandato. Un modello che sarebbe così mutuato nel suo presupposto ontologico (la fiducia) dalla relazione uomo-uomo, alle relazioni uomo-robot e robot-robot. Certo è che, pur se si ritenesse tale tesi non percorribile, in ogni caso, l’intervento della robotica nello scenario socio-economico, e, in particolare, della robotica di tipo antropomorfo, destinato ad entrare definitivamente in crisi è il paradigma tradizionale del “buon padre di famiglia”, con cui oggi è impostato sostanzialmente il giudizio sulla diligenza, almeno nel nostro ordinamento. Esso infatti si basa sull’idea che lo sforzo dovuto sia quello medio, cioè secondo la statistica mediamente necessario per eseguire l’attività o raggiungere il risultato richiesto. Un modello che stato icasticamente criticato dalla migliore dottrina italiana già con riferimento all’agire umano, in quanto esaltazione della mediocritas, che a ben vedere rappresenta il valore di fondo su cui si basa l’accertamento statistico di un “dovuto in quanto mediamente tale”, e ciò a discapito di una diligenza che invece sia improntata al valore della “fruttuosa operosità”, che dovrebbe informare, se non ispirare, l’agire umano che sia giuridicamente vincolato.
Da un lato, infatti, si potrebbe pensare di continuare sulla scia del ‘buon padre di famiglia’ e mediare, con riferimento alle abilità di un robot “comune”, la teoria dello sforzo “adeguato” dell’uomo medio. Si tratterebbe sempre e comunque di pensare al robot come una figura a sé stante, esistente nel panorama socio-economico e autonoma rispetto al fenomeno giuridico dell’adempimento, a cui si richiede, nell’esecuzione della prestazione, lo sforzo normalmente necessario per raggiungere il risultato prospettato o prevenire il rischio collegato a una certa attività, come ad esempio un intervento chirurgico o la consegna di un bene mediante drone.
Dall’altro, invece, si potrebbe tentare Diu utilizzare un diverso parametro per la diligenza, prendendo spunto dalle tre leggi della robotica, in particolare la terza. Il robot, infatti, opera e agisce secondo un parametro di perfezione, cioè egli ha come riferimento di correttezza, l’esattezza del calcolo, per cui, a voler utilizzare una nota distinzione tra le obbligazioni, nessuna prestazione per questi sarebbe di mezzi, ma sempre e comunque di risultato. Al robot quindi sarebbe richiesta la diligenza che egli impiegherebbe per un proprio affare, tanto quando operi per conservare un bene, anche se stesso, quanto quando operi per conseguirlo, con il limite della tutela del bene primario finale, che è l’uomo, sempre secondo la terza legge. Allora, per principio di causazione, ogni robot, o meglio ogni chipset di cui questo sia munito, oltre che impostato e realizzato in funzione di tale bene primario, dovrà essere anche valutato, nel suo agire, in base allo scopo di protezione del bene finale primario, quale è la vita individuale del robot e, ma solo in caso di contrasto, dell’uomo.
Considerata la rilevanza della diligenza ai fini del giudizio di responsabilità, la prima strada porterebbe, con ogni probabilità, all’ideazione di un sottosistema di responsabilità, il quale non sarebbe dissimile da quello attuale valido per l’uomo, se non per il fatto che esso si applicherebbe al robot. In tale sottosistema, vigerebbe una regola generale della responsabilità oggettiva, tendenzialmente fondata sull’antigiuridicità della condotta (l’inadempimento), che prescinde dall’indagine sulla colpevolezza del robot, che potrebbe evitare di rispondere dell’inadempimento soltanto dimostrano il caso fortuito, e non certo la disfunzione del chipset, che riconduce pur sempre a una sua condizione personale, men che meno la impossibilità relativa, quando altro robot sia in grado di eseguire la prestazione. Pur costruendo la responsabilità come fondata sulla colpa, il giudizio di imputabilità sarebbe basato come noto sulla diligenza oggettiva, cioè sul comportamento posto in essere dal robot, avrebbe come riferimento il parametro del buon padre di famiglia, e quindi dello sforzo medio statistico dei robot. Int al caso, il giudizio di imputabilità si rispecchierebbe nell’efficienza del chipset di cui il robot è provvisto; quindi, se da un lato anche condizioni personali e latu sensu economiche del robot potrebbero incidere sul giudizio di colpevolezza, sino a escludere la responsabilità, non sarebbe in ogni caso possibile esigere dal robot uno sforzo che superiore di quello in concreto previsto per la prestazione dedotta in concreto nel rapporto. In conclusione l’inettitudine colposa del robot sebbene anche in tesi scusabile, ma solo se e in quanto dimostrata a monte la consapevolezza dell’uomo rispetto all’inabilità del robot nella vicenda di relazione in concreto. Nelle due vie, la diligenza oggettiva.
La seconda strada sarebbe quella di una responsabilità concettualmente autonoma e basata sulla colpa del robot, e che adotti come schema una nozione personale e non oggettiva di diligenza, fondata cioè sulla “fiducia”, che si specifica rispetto a ciascuno tipo-robotico di rapporto obbligatorio: (a) umano-robot; (b) robot-robot. La fiducia si fonda sulla nozione di attendibilità che sorregge l’impianto ontologico dell’agire robotico, che ha come riferimento l’esattezza del calcolo, e non il giudizio prognostico. Si tratterebbe di addentrarci per un vicolo stretto, ma che, già solo a pensarlo, potrebbe condurre a scenari tanto vasti quanto sorprendentemente innovativi per il futuro dei due generi, robotico da un alto e umano dall’altro. Dall’ingresso di una robotica, anzi per l’esattezza di una robotica “responsabilizzata”, l’ordine sociale umano non si vedrebbe affatto pregiudicato, né sul piano etico, men che meno su quello economico. Anzi, ne sarebbe tutt’al più ottimizzato in due strutture fondamentali, quali i criteri di determinazione del contenuto del comportamento dovuto e di imputabilità della responsabilità. Fondare la responsabilità del robot sulla fiducia significherebbe né più né meno che scommettere sul potenziale persuasivo della solidarietà. Lo sforzo per realizzare l’interesse altrui, infatti, avrebbe come unico limite oggettivo e come principio performante il principio di solidarietà. Da un lato, nessun obbligo potrebbe legittimare un sacrificio sproporzionato per l’obbligato o comportare un esito “non giusto” sul piano etico-sociale, dall’altro ciascuno, dovendo agire nella cura dell’interesse altrui sì come per un proprio fine, parteciperebbe alla costruzione della sostenibilità del vivere comune, a prescindere dalla natura robotica o umana del consociato.