Racconto a focalizzazione zero, a focalizzazione interna o a focalizzazione esterna?
Protagonista allodiegetico o audiodiegetico?
Spazio euforico o spazio disforico?
Tempo anticipato, tempo prolessi?
Tempo retrospettivo, tempo analessi?
Fabula e intreccio? Storia e discorso?
Tra pensiero narrativo e discorso narrativo, lo "Storytelling" come didattica attuata nella prassi scolastica, ha un indubbio valore di autoconsapevolezza del sè.
"L'attante non è definito in maniera ontologica, rispondendo alla domanda 'Chi (o che cosa) è?', bensì in maniera relazionale o funzionale, rispondendo alla domanda 'Che cosa fa?'. Si intende che l'attante può essere umano o non umano, compiere un'azione direttamente o indirettamente (per mezzo di delegati), e in forma attiva o passiva (subendo l'azione altrui)."
Nell'ambito della sceneggiatura un attante è un elemento che vale per il posto che occupa nella narrazione e per il contributo che dà a portarla avanti:
“Qui […] non si esamina il personaggio né in termini fenomenologici (il carattere e i comportamenti quali man mano si esprimono), né in termini formali (la classe di atteggiamenti e di azioni espresse), bensì si mettono in luce i nessi strutturali e logici che lo legano ad altre unità"[4]
4^Casetti, Francesco e Di Chio, Federico, Analisi del film, Bompiani, Milano,1990, p. 176.
Da quasi mezzo secolo, ormai, l'informatica ha trovato nella musica un'importantissima area applicativa fino a diventare una vera e propria disciplina scientifica: l'informatica musicale, da cui la computer music, che indica tutte quelle composizioni realizzate con l'ausilio di elaboratori.
Ciò è stato possibile già a partire dalla diffusione dei primi calcolatori, verso la fine degli anni cinquanta. L'informatica applicata alla musica ebbe tra i suoi precoci estimatori L. Hiller, I. Xenakis e G. M. Koning, con le prime ricerche sulla sintesi numerica del suono. Nel 1977 sorse l'IRCAM del Centre Pompidou di Parigi, fondato da P. Boulez finalizzato allo studio di nuove tecniche di conversione digitale-analogica delle frequenze.
In Italia, i primi esperimenti furono effettuati dal CNUCE di Pisa, per opera di P. Grossi ma altre istituzioni, con sede a Napoli, Milano, Bologna e Modena, svolsero indagini specifiche in tal senso.
Le aziende informatiche, a partire dagli anni '80, fecero a gara per immettere sul mercato macchine sempre più sofisticate ed economiche.
Nel settembre del 1982 la Apple lanciò sul mercato l'Apple II, mentre la Commodore International lanciò sul mercato il pc C64. Il successo fu immediato: il prezzo era dimezzato rispetto a quello del concorrente, ma le prestazioni erano maggiori. Inoltre la dotazione di software sembrava infinita.
I programmatori del Commodore 64 sfruttarono ogni bit di memoria disponibile, creando programmi che oggi sembrano impossibili se si pensa che il processore girava a poco più di 1Mhz e la memoria era solo di 64 K.
Ma il Commodore 64 possedeva un avanzato chip sonoro, dedicato esclusivamente alla gestione degli effetti audio: per questo furono numerosissime le applicazioni musicali, che prevedevano anche delle speciali tastiere per simulare un pianoforte sul C64. Con quelle risorse così esigue fu infine possibile sintetizzare sul Commodore 64 la voce "umana": chi ha usato questi softtware più di 15 anni fa non dimenticherà mai quella voce elettronica che usciva per magia dai circuiti di una macchina da sogno.
La tecnologia ha poi fatto passi da gigante e notevole apporto allo sviluppo della musica elettronica si deve al sistema MIDI, acronimo di Musical Instruments Digital Interface, grazie al quale una serie di apparecchiature musicali elettroniche MIDI (sintetizzatori, expander, sequencer, processori digitali di segnali audio, mixer, batterie elettroniche, patchbay ecc.) collegati fra loro, utilizzano un comune linguaggio per trasmettere o ricevere informazioni.
Il linguaggio MIDI viene quindi utilizzato per trasformare in numeri i gesti compiuti da un musicista durante l'esecuzione: l'abbassare tasti, il pizzicare corde, il percuotere membrane, il manovrare potenziometri, pulsanti, rotelle, vengono trasformati in equivalenti messaggi digitali trasmessi a tutti gli strumenti elettronici presenti sulla rete.
Molti settori della produzione musicale si avvolgono del MIDI per la facilità di utilizzo, la flessibilità e la semplicità di programmazione e la vastissima gamma di apparecchiature a diversi livelli di prezzo e prestazioni presenti sul mercato: dalla produzione di brani musicali leggeri alla musica sperimentale, dal sincronismo tra luci ed effetti nelle esecuzioni dal vivo alla produzione di colonne sonore e materiale multimediale.
Il proliferare di nuovi hardware è stato accompagnato da un fiorire di software sempre più elaborati per la gestione dei suoni; tra i più utilizzati troviamo Building Blocks, Buster, Cakewalk Sonar, Cubase-Steinberg, Ditty Easibeat, Jammer-Soundtrek, JUMP, Logic Pro Audio, Magix, Power Chords, Vocal Writer.
Il mondo della musica è affascinante e le possibilità offerte dall'informatica al servizio della musica sono innumerevoli ma oggi anche il settore della musica soffre di una crisi occupazionale, nonostante il gran fermento di sperimentazioni e di progressi (40000 sono i fonici, creatori di musica elettronica, Arrangiatori, Parolieri, Compositori, Interpreti, Cantanti, DJ, Speaker, Coristi, Studi di registrazione, manager e impresari e bravi utilizzatori di software musicale).
Più tradizionale, per un musicista, resta l'insegnamento (nei conservatori con 5000 professori), quindi la carriera solistica e l'orchestra; la professione si svolge anche nelle ore notturne con buone opportunità nei piano bar e nei ristoranti.
Si dice che l'arte non arricchisce; anche se in parte è vero, essa è in se stessa una ricchezza. Chi si interessa alla musica lo fa innanzitutto per piacere e già questo lo soddisfa pienamente, infatti "senza la musica per decorarlo il tempo sarebbe solo una noiosa sequela di scadenze produttive e di date in cui pagare le bollette" (Frank Zappa).
Fiorentino Di Ruggiero, "Le ITC nella composizione e produzione della musica", pg. 26-28, in "Le competenze digitali per accedere all'università, al mondo del lavoro e per relazionarsi positivamente nella società della conoscenza", a cura di Giuseppina Di Ture, per la Campagna informatica sulle competenze digitali "e-Skills-week 2010", di ANSAS e INDIRE.
sabato 2 aprile 2016
UBIQUITOUS COMPUTING
Fu Mark
Weiser a
coniare il termine "ubiquitous computing", attorno al 1988,
durante la docenza come Chief
Technologist (Ingegnere
capo), presso il Palo Alto Research Center (PARC, Centro di Ricerca
di Palo
Alto)
della Xerox.
Sia
da solo che assieme a John
Seely Brown,
Weiser scrisse alcuni articoli che rappresentano i primi documenti
sull'argomento, definendone gran parte della disciplina e delineando
i suoi principali interessi e dubbi in proposito.
Opposto
al paradigma del desktop (letteralmente:
«scrivania»), in cui un utente individuale aziona consciamente una
singola apparecchiatura per uno scopo specifico, chi "utilizza"
lo ubiquitous
computing aziona
diversi sistemi e apparecchiature di calcolo simultaneamente, nel
corso di normali attività, e può anche non essere cosciente del
fatto che questi macchinari stiano compiendo le proprie azioni e
operazioni. Questo paradigma viene descritto anche come calcolo
pervasivo, intelligenza
ambientale o,
più di recente, ovunque' (oppure,
utilizzando il corrispondente termine inglese,everywhere).
Quando riguarda principalmente gli oggetti coinvolti, è anche
detto calcolo
fisico, Internet
of Things (letteralmente: Internet
delle cose), haptic
computing (letteralmente: calcolo
tattile)
e cose
che pensano.
L'ubicomp comprende
un'ampia gamma di argomenti di ricerca, tra cui il calcolo
distribuito,
il mobile
computing,
i Wireless
Sensor Network (o
WSN), l'interfaccia
uomo-macchinae
l'intelligenza
artificiale.
Un'introduzione a questo particolare campo informatico,
adatta a un pubblico generico, è rappresentata dal libro di Adam
GreenfieldEveryware:
The Dawning Age of Ubiquitous Computing,in
cui Greenfield descrive il paradigma d'interazione dello ubiquitous
computing come
"elaborazione di informazione che si dissolve in comportamento".
La nozione di intelligenza ambientale (in ingleseambient intelligence e in sigla AmI), attualmente riguarda lo scenario nel quale gli uomini vivono circondati da una tecnologia informatica e telematica, ovvero da dispositivi con capacità computazionali e di connessione in rete, che si mettono a loro disposizione in modo non invadente.
Questo concetto è stato sviluppato dall'ISTAG, Information Society Technologies Advisory Group, gruppo di consulenza della direzione generale Società dell'informazione e mezzi di comunicazione della Commissione europea. La prospettiva dell'AmI pone in rilievo le caratteristiche di user-friendliness, il supporto a servizi efficienti e distribuiti, il potenziamento degli utenti e il sostegno alle interazioni umane. Questa visione assume che si verifichi un avanzamento dalla attuale disponibilità di personal computer verso la diffusione di dispositivi di vari generi inseriti in modo non invadente nei nostri ambienti e accessibili attraverso interfacce intelligenti.
Per far diventare l'AmI una realtà sono necessarie svariate tecnologie chiave:
hardware non invadente (miniaturizzazione, nanotecnologia, dispositivi intelligenti, sensori ecc.);
infrastruttura di comunicazione basata sul Web con componenti fisse e mobili priva di smagliature (dotata di interoperabilità, reti cablate e wireless ecc.);
dispositivi di rete largamente distribuiti;
interfacce con le quali si possa interagire in modo naturale (agenti intelligenti, interfacce multimodali, modelli di consapevolezza del contesto ecc.);
affidabilità e sicurezza (software autoverificante e autocorrettore, tecnologia che assicuri la riservatezza ecc).
In sintesi sono necessari sistemi e tecnologie altamente sensibili, responsivi, interconnessi, contestualizzati, trasparenti e intelligenti.