In questo sito utilizziamo dei cookies per rendere la navigazione più piacevole per i nostri clienti.
Cliccando sul link "Informazioni" qui di fianco, puoi trovare le informazioni per disattivare l' installazione dei cookies,ma in tal caso il sito potrebbe non funzionare correttamente.Informazioni
Continuando a navigare in questo sito acconsenti alla nostra Policy. [OK]
Aggiornato al 17/12/2018

Leon Zernitsky (Russia 1949 - Thornhill, ON - Canada) - Rhythm And Blues

 

Le musiche audiotattili: intervista a Vincenzo Caporaletti, grande musicologo

di Fabio Macaluso

 

Dopo aver ascoltato su questo webmagazine Luca Ruggero Jacovella sull'arte dell'improvvisazione musicale, sono scaturiti nuovi quesiti sulla natura spontanea della creazione musicale che ho avuto la fortuna di porre al musicologo Vincenzo Caporaletti, il massimo studioso al mondo del carattere estemporaneo della musica.

Professor Caporaletti, lei è uno dei musicologi più originali e innovativi della scena mondiale. E' sua la teoria delle musiche audiotattili. Può spiegare ai nostri lettori il suo contenuto?

Più che spiegare cosa “dice” la teoria delle musiche audiotattili – per cui occorrerebbe un po’ di tempo –, conviene illustrare ciò che essa “fa”. Immaginiamo che la musica sia il pianeta Terra. Pensiamo, quindi, alla percezione e conoscenza del nostro pianeta che si ha vivendo sulla sua superficie, nel “fazzoletto di terra” che corrisponde alla nostra esperienza quotidiana, e, di converso, alla consapevolezza che deriva dall’osservarlo dalla prospettiva di un satellite. Questo secondo punto di vista ci fa percepire “globalmente” un aspetto che prima non saremmo riusciti a cogliere compiutamente: quello di vivere su di una sfera sospesa nel vuoto. Ebbene, la riflessione musicologica è sempre stata concepita a partire da quei “fazzoletti di terra” che sono le singole tradizioni culturali: prima la musica scritta europea, detta “classica”, studiata dalla musicologia storica e da quella sistematica, e le musiche etniche, studiate dall’etnomusicologia; in seguito il jazz con i jazz studies, il rock e il pop con i popular music studies, e così via. Con ogni ambito culturale, in qualche modo, distinto e a volte opposto ideologicamente agli altri punti di vista. Osservando, invece, la musica dalla prospettiva del “satellite”, si scopre la relazione sistemica di queste componenti, realizzando una più profonda conoscenza di ognuna di esse. Il punto di osservazione unificante è dato dall’antropologia cognitiva, considerando la natura profondamente umana dei modi di conoscere e creare la musica specifici dei diversi punti di vista, e dalle acquisizione delle neuro-scienze. In quest’ottica si profilano due modalità cognitive fondamentali e complementari, che ho definito rispettivamente “audiotattile”, basata sulla razionalità psico-corporea e sull’azione orientata dal contesto, e “visiva”, regolata da norme astratte e dalla loro combinazione.

La musica dal '900 in poi è condizionata dall'avvento della registrazione con cui viene fissata l'opera musicale. E' stata una rivoluzione?

È stata più che una rivoluzione. Il problema è che se la si considera con la prospettiva di quel fazzoletto di terra che è l’Europa con la sua storia, ponendo la questione, come si fa ancora oggi, in termini di opposizione tra scrittura e oralità, non se ne viene a capo. Se invece ci si dispone nella prospettiva “satellitare”, considerando la fonografia sulla base dei meccanismi cognitivi, allora si vedrà come l’umanità abbia subìto una radicale trasformazione psico-antropologica quando si è resa conto che il suono, e anche l’azione, col cinema, potevano essere fissati. Chiamo “codifica neo-auratica” il processo che coinvolge queste dinamiche cognitive. Ad esempio, Mozart non sapeva che il suono potesse essere fissato, così come coloro che nei secoli hanno contribuito a vivificare e a forgiare le varie tradizioni etniche. Louis Armstrong o Jimi Hendrix, invece, sì. Questo fatto ha una rilevanza capitale rispetto ai modi di pensare, creare e valutare la musica e all’identità socio-antropologica dei musicisti.

In cosa si distingue l'estemporizzazione dall'improvvisazione? In questo senso, il jazz è una musica finita oppure no?

La scoperta dell’estemporizzazione corrisponde ad un processo basilare della ricerca: si distinguono due fenomeni laddove se ne vedeva uno solo. Per le attività creative in tempo reale si è sempre utilizzata la categoria di “improvvisazione”, lasciando all’“interpretazione” della partitura tutta una serie di prerogative, anch’esse a rigore effettuate ex tempore, ma non riconducibili ad una vera e propria attività improvvisativa. Tutto ciò, però, presuppone un testo scritto dal compositore che venga interpretato da un esecutore (è un meccanismo attivo in quel famoso “fazzoletto di terra” della tradizione dotta occidentale). Nel jazz e nel rock questo modello non funziona più: non essendoci una composizione scritta vincolante per l’esecuzione (pur in presenza di un “testo” fissato a posteriori dalla registrazione), la sfera dell’interpretazione si sovrappone a quella della creazione, e per questo motivo bisogna utilizzare un nuovo concetto, quello di estemporizzazione. In quest’ottica, l’esperienza audiotattile diventa un codice genetico del jazz, condiviso dal rock ma anche dal pop e dalle world music contemporanee. Direi che è tramontato un modo di percepire e considerare il jazz, in favore di nuovi modelli.

Un autore estemporaneo/improvvisatore ha il diritto di vedersi attribuita la paternità e la "proprietà" della sua opera nei confronti di tutti? Per questo è necessario accomunare le diverse espressioni del musicista per riconoscergli i diritti sopra detti? Ad esempio, il suono di Keith Jarrett può essere paragonato al DNA riconoscibile e associabile solo al pianista americano?

Se l’estemporizzazione e/o l’improvvisazione assumono nel jazz una funzione costitutiva del testo, attraverso l’approccio psico-fisico audiotattile, è chiaro che debbano essere riformulati i criteri che basano l’identità testuale, e le connesse dinamiche proprietarie, sul mandato scritturale della partitura. Il tocco di un jazzista, la voce di un cantautore, il timbro di un saxofonista, le componenti audiotattili della loro formatività (tutte caratteristiche di cui si può avere scientifico riscontro oggettivo con un banalissimo sonogramma), sono nelle musiche audiotattili investite di valore formale sostanziale, in molti casi ancora più degli elementi ritmo-melodici attraverso cui rileviamo l’identità testuale di un’opera della tradizione visiva (ad esempio, di Mozart).

Proprio la settimana scorsa è stata presentata una proposta di legge che intende incentivare la “musica popolare contemporanea”. La relativa definizione non è inserita nel testo legislativo. Secondo lei, quale musica deve identificare?

Credo sia un errore gravissimo continuare ad usare questa etichetta di “musica popolare contemporanea” per identificare le musiche audiotattili. L’equivoco di fondo è che si considera il jazz, con il rock, pop, ecc. – le musiche fondate sul modello di cognitività e formatività audiotattile –, con la categoria sociologica di “popolare”. Questa equiparazione è molto problematica, poiché proietta surrettiziamente sul jazz o sul pop la caratteristica fondante di quei repertori e pratiche musicali che un Diego Carpitella, negli anni ’50 del XX secolo, a ragione poteva definire “popolari”: la tradizione orale. La “serenata del Gargano”, così come si è storicamente conformata, non disponeva di un testo oggettivato e strettamente fissato da cui potesse essere identificata, ma si “disseminava” in una serie di pratiche esecutive mutevoli, intrise di varianti, che si estinguevano nel momento stesso della loro realizzazione. “I Got Rhythm” eseguita da Charlie Parker, d’altra parte, pur avendo un compositore, George Gershwin, è “virata” in un regime audiotattile jazzistico in cui, per logica culturale, il gesto dell’esecutore prevale sul testo dell’autore. Parker diventa un estemporizzatore quando esegue in modo del tutto personale il brano, ricomponendolo al momento, e poi un improvvisatore, elaborando ulteriormente il materiale musicale; inoltre, fatto fondamentale, finalizza la propria azione creativa in un testo oggettivo e irrevocabile, dato dalla registrazione, considerata un’intenzionale proiezione del proprio fare artistico. Questo tratto è assolutamente dirimente rispetto alla fenomenologia tradizionale orale. Il rischio di un uso ideologico dell’etichetta “popolare” per la canzone pop sta nel confondere il prodotto di una fenomenologia audiotattile – nella fattispecie spesso soggetto unicamente a logiche di profitto commerciale – con l’idea della salvaguardia della cultura popolare orale e tradizionale. Sono fenomeni completamente diversi. È qui che la distinzione tra orale e audiotattile diventa cruciale.

Come ritiene sia cambiato il processo di elaborazione della musica in un momento in cui produrre suoni con mezzi digitali è piuttosto semplice?

La questione del digitale è piuttosto articolata, e in questa risposta dovrò utilizzare un linguaggio un po’ più “tecnico”. Vi sono molti e diversificati scenari di digitalizzazione musicale, che prevedono un diverso grado di interfaccia con il soggetto “corporeo”. Ciò nonostante, l’aspetto cognitivo audiotattile è pur sempre attivo in queste esperienze di musica computerizzata. Ricordiamo che il vero digitale è l’ambiente meccanicistico cartesiano, che ha dato luogo alla notazione musicale o alla concezione dello spazio/tempo parcellizzato. È qui che trionfa la matrice cognitiva visiva, dove elementi minimali (ad esempio, le note) si combinano in stringhe sempre più macroscopiche per arrivare ad un testo, in sé, sostanzialmente e profondamente frammentato (dove natura facit saltus …); in ogni caso, in cui le valenze organiche del principio audiotattile sono espunte. Quello che chiamiamo digitale, nella nostra contemporaneità, invece, proprio in ragione dell’elevato grado di combinazione dei dati, trasformando la quantità in qualità, tende ad annullare la propria natura discontinua, e si protende nell’organico, o meglio, in una sua simulazione, come dimostrano gli esiti informatici, sempre più naturalistici nel disegnare realtà virtuali. Per cui, al di là di fenomeni musicali che reputo transitori, derivanti dalla pervasiva disponibilità combinatoria di micro-testi preformati di tipo armonico, ritmico, a loro volta declinabili attraverso svariati codici stilistici, o elementi formali mutuati attraverso campionatori, da ricombinare secondo i criteri epistemologici del modello cognitivo audiotattile (ma non sono forse micro-testi da ricombinare gli stessi accordi della chitarra appresi come posizioni delle dita, prescindendo da ogni visivo criterio teorico armonico?), credo che la cognitività audiotattile insita nell’informatica produrrà nel futuro un sincretismo virtuoso con l’audiotattile propriamente umano.

Una domanda finale: quando lei ascolta la musica riesce a divertirsi e a rilassarsi o ha un approccio come Adorno che lo faceva solo in un ambito intellettuale e cerebrale?

Ottima domanda. La teoria delle musiche audiotattili ci aiuta proprio in questo: studiando i modi di conoscenza, percezione, apprezzamento delle musiche, ci mostra come quell’approccio cerebrale e anestetizzato (adorniano per antonomasia) sia spesso effetto di un eccesso di carico teorico visivo. L’approccio audiotattile è più legato alla sfera psico-somatica e propone altre vie di accostamento al fenomeno musicale. Credo che una saggia sintesi delle due modalità, laddove correttamente identificate e tematizzate (una consapevolezza cui dovrebbe mirare una vera educazione musicale), possa restituirci il “piacere del testo” senza travisare i criteri linguistici propri delle diverse musiche.

Scarica l'articolo in PDFgenera pdf
Inserito il:04/11/2016 09:59:52
Ultimo aggiornamento:04/11/2016 10:04:41
Condividi su
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)
nel futuro, web magazine di informazione e cultura nel futuro, archivio
Questo sito utilizza cookies.Informazioni e privacy policy
yost.technology