Cosa manca all’informatica?
Voglio iniziare il nuovo anno con un articolo fuori dal normale, un articolo di riflessione per noi informatici: assistiamo a grandi novità giorno dopo giorno, eppure secondo voi, cosa ancora manca al mondo del software? Qualcuno fra noi ha più e più volte sostenuto che “il codice utile è stato già scritto” ma è davvero così? La storia dell’informatica è costellata di innovazioni susseguitesi a ritmo quasi costante, eppure, dalla nascita del paradigma di programmazione orientato agli oggetti non assistiamo a significativi, ovviamente secondo la modesta opinione di chi scrive, cambiamenti più che altro concettuali.Python, Ruby, PHP sono tutti prodotti attualissimi che hanno aperto aree di lavoro grandissime (PHP e Ruby forse più di Python, anche se da programmatore python mi piacerebbe vederlo più usato soprattutto qui in Italia) eppure nelle metodologie di sviluppo e nella concettualità dei suoi lessemi non si discosta molto da quanto tracciato da linguaggi più vetusti come C o Java.
“L’innovazione”, se così vogliamo considerarla, degli ultimi tempi (non quantifico la parola “tempi”, dato che in informatica c’è un certo margine di relatività) forse risiede nell’uso sempre più crescente di XML e Ajax o di applicazioni RIA (Rich Internet Application) sviluppate in Flex o Silverlight.
Il dubbio amletico che mi pongo, da programmatore, è: se il software potrebbe ulteriormente esplorare terreni incolti, il problema è alla radice? bisognerebbe spingere ancora un passo in la le potenzialità dei linguaggi di programmazione? ci sarebbe bisogno di un cambiamento concettuale e sintattico di questi ultimi? Anche Google in occasione dell’annuncio del suo linguaggio di programmazione si era posta questi interrogativi, affermando che nell’ultimo decennio i linguaggi anche se performanti non hanno distribuito nessuna nuova innovazione.
Voi cosa ne pensate?