Tecnologia dos instrumentos musicais eletrônicos

Por | 5 de outubro de 2001

Nesta série de artigos abordaremos as tecnologias utilizadas nos instrumentos musicais eletrônicos. É um assunto muito vasto e interessante, sobretudo pela sua dinâmica no decorrer dos anos, em que os processos para a produção do som modificaram-se e aprimoraram-se de acordo com as tecnologias disponíveis. Faremos uma recapitulação histórica das experiências mais antigas, apresentando os produtos mais significativos em cada época. Em seguida, mostraremos os principais processos – antigos e atuais – utilizados para a geração de sons, e também os recursos de controle disponíveis. Finalmente, concluiremos com uma apresentação de algumas das tendências que vêm surgindo em direção ao futuro.

  • Do passado aos dias atuais
  • Síntese Subtrativa
  • Síntese Aditiva
  • Síntese FM
  • Samplers
  • Modelagem Física
  • Síntese Granular
  • Dispositivos de Controle
  • Sintetizadores Virtuais
  • Fontes de consulta

 

Parte 1: Do passado aos dias atuais

Numa época em que a Economia e a Política são sempre matérias de primeira página em quase todos os jornais do planeta, certamente muitas pessoas devem achar que a música é algo supérfluo e de importância secundária para a sociedade. Entretanto, se observarmos a história da humanidade, perceberemos que, na verdade, a música sempre foi, e muito provavelmente continuará sendo, não só um “bem” artístico, mas também um elemento diretamente ligado à evolução dos povos.

Não é nossa intenção analisar aqui as implicações sócio-culturais da música, mas vale a pena lembrar que nos últimos anos ela foi um fator determinante na globalização cultural, fato que muitas pessoas costumam avaliar como “dominação”. Dentro desse enfoque, a música talvez seja a mais direta, mais profunda e mais poderosa de todas as artes, uma vez que não precisa necessariamente de palavras (ultrapassando os idiomas), e também atue como apoio de outras artes, como o cinema e o teatro, por exemplo.

Um dos aspectos mais relevantes para o nosso enfoque, entretanto, é no que diz respeito ao desenvolvimento tecnológico. Enquanto outras artes, como o teatro e a poesia, praticamente independem do estágio de evolução tecnológica, quase sempre a música requer algum instrumento para que possa ser transmitida ao público. Isso criou uma associação muito sólida entre a arte e a tecnologia.

Engana-se quem pensa que a música produzida por meios eletrônicos é mais “tecnológica” do que a produzida por instrumentos acústicos. Na verdade, ambas requerem algum tipo de tecnologia, sendo a avaliação do grau de sofisticação uma coisa muito relativa. A construção de um piano acústico, há mais de cem anos, requeria um enorme investimento de tempo e trabalho, conhecimento de materiais, precisão de fabricação etc. Nos dias atuais, a criação de um sintetizador virtual operando por software pode ser feita por um único programador, dispondo apenas de um computador e alguns outros recursos modernos. Se pensarmos bem, em ambos os exemplos há uma enorme aplicação de conhecimentos tecnológicos que, se avaliados pelos conceitos de cada época, terão praticamente a mesma complexidade. Mudaram as formas de se trabalhar, em virtude do conhecimento acumulado. Essas diferenças têm sido percebidas em vários outros setores de nossa sociedade, como os transportes, as comunicações, e até mesmo o lazer.

Dentro dessa idéia, o que vamos apresentar são os tipos de processos tecnológicos utilizados para se gerar sons nos instrumentos musicais eletrônicos, o que inclui tanto a tecnologia de materiais e componentes (válvulas, semicondutores, microprocessadores etc) quanto os conceitos de operação (síntese subtrativa, síntese aditiva, sampler etc). Paralelamente, vamos também abordar os meios de controle, o que não só envolve a ciência dos materiais como a capacidade criativa dos seus inventores.

Nosso artigo fará uma compilação de diversas informações, obtidas em livros, especificações, revistas, Internet e experiências pessoais e, no final da série, apresentaremos uma lista das principais fontes de referência.

A História

De acordo com alguns historiadores, as primeiras tentativas de se utilizar a eletricidade para controlar sons deram-se ainda no século XVIII, através das experiências de Jean-Baptiste de La Borde que, em 1759, construiu o Clavecin Electrique. Um instrumento de teclado que utilizava cargas eletrostáticas para fazer com que pequenas lâminas metálicas batessem em sinos, produzindo os sons.

Pouco mais de cem anos depois, Alexander Graham Bell inventava o telefone – considerado um dos grandes marcos da história contemporânea. Em 1874, o também norte-americano Elisha Gray desenvolveu um dispositivo onde lâminas de aço vibravam e produziam sons, controladas por um circuito elétrico auto-oscilante. Nascia, então, o Musical Telegraph, que tinha um teclado de piano como meio de controle e podia transmitir os sons através do telefone. Posteriormente, Gray incorporou um alto-falante bastante rudimentar, que permitia ouvir o instrumento fora da linha telefônica.

tec_ins01

É importante registrar que, em 1877, Heinrich von Helmholtz publicou o livro “The Sensation of Tone”, uma primeira discussão sobre a composição do som, usando como base o teorema de Fourier que demonstra matematicamente a formação de um som musical complexo a partir da soma de vários sons (oscilações) mais simples. Helmholtz também apresentou explicações sobre as características da percepção do ouvido humano a sons fracos e fortes, e demonstrou cientificamente as razões das consonâncias entre sons diferentes, que deram origem às escalas musicais e à harmonia. A divulgação de tais conceitos foi fundamental para que outras pessoas pudessem partir para empreitadas em busca de novos instrumentos musicais.

Em 1897, o norte-americano Thaddeus Cahill patenteou um instrumento denominado Telharmonium (também conhecido como “Dynamophone”), cujo primeiro modelo completo foi apresentado ao público somente em 1906. O Telharmonium utilizava um conjunto de dínamos com ressaltos em seus eixos que, ao passar na frente de bobinas, produziam sinais de corrente alternada com diferentes freqüências de áudio. Esses sinais eram, então, controlados por teclados de sete oitavas com sensibilidade ao toque, e era possível produzir notas desde 40 Hz até 4 kHz. O sinal produzido pelos geradores era convertido em som e amplificado acusticamente por cornetas, pois naquela época não existiam amplificadores. A idéia de Cahill era conectar o Telharmonium à rede telefônica, e oferecer um serviço de “broadcast” de música a assinantes (restaurantes, hotéis etc.), onde os aparelhos telefônicos seriam acoplados a cornetas acústicas. A aparência do Telharmonium estava mais para uma usina elétrica do que para um instrumento musical, pois sua estrutura tinha mais de 18 metros de largura e pesava cerca de 200 toneladas. O custo do empreendimento foi de 200 mil dólares na época. Como veremos mais adiante, a concepção original do Telharmonium foi aprimorada e utilizada durante muito tempo nos “tonewheels” dos órgãos Hammond.

tec_ins02Desde que foi descoberta, a eletricidade logo causou um fascínio a inúmeros cientistas que, rapidamente, inventaram formas variadas de aplicá-la. Mas foi somente em 1907 que surgiu a “válvula eletrônica” (triodo), criada por Lee De Forest, que chamou-a na época de Audion. Com a válvula, deu-se um impulso sem igual ao desenvolvimento de novos equipamentos utilizando a eletricidade, com o rádio e uma enorme variedade de aplicações de circuitos osciladores e amplificadores.

De Forest chegou a colaborar com Tadheus Cahill na transmissão de concertos do Telharmonium via rádio, o que não foi levado adiante porque Cahill insistia em utilizar a linha telefônica (o que, provavelmente, foi a principal causa do insucesso do Telharmonium). O próprio De Forest chegou a construir, em 1915, o Audion Piano, um instrumento com teclado, usando um oscilador e a capacitância do corpo para controlar a afinação e o timbre da nota (processo aperfeiçoado depois por Leon Termen, como veremos a seguir). Surgia, então, a era da eletrônica.

1a fase: Válvulas e Motores

Consideraremos como primeira fase da eletrônica musical o período que vai do início do século XX (invenção da válvula) até o final da década de 1940 (invenção do transistor). Um aspecto interessante dessa fase está no fato de os novos instrumentos terem sido desenvolvidos em vários países diferentes, coisa que não acontece nos dias de hoje, em que os principais lançamentos vêm dos EUA ou do Japão, demonstrando claramente uma concentração de conhecimento tecnológico.

Em 1917, Lev Sergeivitch Termen era ainda um estudante de engenharia em Moscou quando construiu um instrumento esquisito, que chamou de “Aeterphone” (uma referência ao som que vinha do “éter”). Seu funcionamento era baseado no princípio do batimento de freqüências, descoberto no início da era do rádio: a combinação de duas freqüências altas (de rádio), uma delas variando, pode produzir uma freqüência mais baixa (de áudio).

tec_ins03O instrumento de Termen, depois conhecido como Theremin, parecia um pouco como um gramofone e possuía duas antenas, uma vertical e outra circular, horizontal. Movendo-se uma das mãos nas proximidades da antena vertical podia-se controlar a altura (afinação) da nota, e movendo-se a outra mão próximo da antena circular podia-se ajustar o volume do som. O resultado, portanto, era um som monofônico, em que o músico podia alterar a nota e a intensidade, mas com um timbre fixo (semelhante ao violino). O instrumento foi apresentado a Lênin, que queria difundir a eletricidade na recém criada União Soviética, e cerca de 600 unidades foram construídas e distribuídas por todo o país.

Leon Theremin, como ficou depois conhecido no ocidente, deixou a URSS em 1927 e foi para os EUA, onde patenteou seu instrumento, e conseguiu que a RCA o comercializasse e distribuísse em todo o país, durante a década de 1930. Desde então, muitos artistas o têm usado, e vários modelos foram produzidos por diversos fabricantes, entre eles a empresa Big Briar, de Bob Moog.

tec_ins04Em 1928, o violoncelista francês Maurice Martenot patenteou um instrumento chamado de Ondes-Martenot, que usava os mesmos princípios do Theremin. O instrumento consistia em um oscilador eletrônico a válvula, e o controle da freqüência do oscilador era feito através de uma anel deslizando num fio, utilizando um teclado para mover o anel para posições pré-definidas, onde faziam contato com capacitâncias diferentes. Um pedal composto de uma esponja impregnada de carvão fazia a função de um potenciômetro rudimentar, e permitia controlar o volume. O som era ouvido através de um alto-falante, dotado de cavidades e ressonadores.

tec_ins05O engenheiro alemão Freidrich Adolf Trautwein apresentou ao público, em 1930, um instrumento inovador de nome Trautonium. O modelo original possuía um painel com um fio resistivo esticado por sobre um trilho metálico, marcado com uma escala cromática e acoplado a um oscilador a válvula. Ao se pressionar o fio, este tocava o trilho e fechava o circuito do oscilador, sendo que a posição do dedo no fio determinava o valor da resistência, que ajustava a freqüência de oscilação, dando a nota musical desejada. O painel do Trautonium possuía uma extensão de três oitavas, mas era possível transpor o som usando uma chave. Circuitos adicionais podiam ser acoplados para controlar o timbre da nota por meio de uma filtragem seletiva, e havia um circuito próprio para amplificar o sinal d oscilador e excitar um alto-falante, dispondo de um pedal para ajuste de volume. A concepção original de filtragem de harmônicos, inexistente nos outros instrumentos da época, foi talvez a primeira idéia de síntese subtrativa, e dava ao Trautonium uma característica singular. Oskar Sala e alguns outros artistas europeus usaram o Trautonium, e a Telefunken chegou a produzir uma versão comercial do instrumento entre 1932 e 1935.

Diferentemente dos demais inventores até então, Laurens Hammond, um relojoeiro norte-americano, foi provavelmente o primeiro a conceber um instrumento musical eletrônico dentro de um conceito mercadológico, que pudesse ser vendido para muitas pessoas. Assim, em 1935, ele construiu o primeiro órgão Hammond, dotado de dois teclados e pedaleira. A geração do som era feita usando o mesmo princípio do Telharmonium: um motor acionava um eixo com várias rodas dentadas, cada uma girando próximo a uma bobina magnética, de forma que cada “dente” ao passar pela bobina produzia uma variação de corrente, gerando assim um sinal oscilante. As várias rodas (chamadas de “tone-wheels”) tinham números de dentes diferentes, gerando freqüências diferentes, que produziam as diversas notas do órgão. Os sinais gerados por cada roda eram, praticamente, senoidais; 61 rodas produziam as fundamentais para as notas dos teclados de cinco oitavas, e mais 30 rodas para a geração de harmônicos. Para controlar o timbre, havia um conjunto de barras deslizantes (“drawbars”), que permitiam ajustar a intensidade dos harmônicos, pela soma dos sinais de várias rodas, o que fazia com que o som resultante tivesse a oscilação fundamental e vários harmônicos, num engenhoso processo de síntese aditiva (um aprimoramento da idéia do Telharmonium).

tec_ins06

Outros recursos interessantes foram incorporados no Hammond, como os efeitos de tremolo e vibrato, além do controle de volume por meio de um pedal de expressão. Além da sua sonoridade, o Hammond também tinha um acabamento impecável, construído num gabinete de madeira do tipo “escrivaninha”, o que dava ao instrumento uma aparência muito bonita dentro dos padrões da época. Provavelmente, foi o instrumento eletrônico de maior vida útil, tendo sido produzido de 1934 a 1974.

Apesar de toda a sofisticação tecnológica que trazia o som “estático” gerado pelo Hammond, era considerado um pouco “sem vida” e, assim, logo surgiram idéias para torná-lo mais natural e agradável. Quem trouxe a melhor solução para isso foi Don Leslie, que inventou uma caixa acústica onde os alto-falantes de graves e agudos giravam, produzindo ao mesmo tempo, e de forma bastante complexa, os efeitos de modulação de amplitude e de freqüência, o que dá ao som uma sensação envolvente, característica da caixa Leslie.

tec_ins07O universo da música eletrônica começou a ficar mais complexo no início da década de 1950 quando os engenheiros norte-americanos Harry Olsen e Herbert Belar concluíram a construção do sintetizador RCA Mark I, um sofisticado sistema de síntese de sons, que ocupava uma sala inteira do laboratório da RCA, em Princeton. Era o primeiro sintetizador desenvolvido para produzir “qualquer som”, baseado nos conceitos de que o som é composto de vários parâmetros: freqüência, amplitude, espectro e envoltória, que podem ser controlados independentemente em tempo-real. Cada parâmetro era controlado por um módulo eletrônico específico, e o gerenciamento do sistema completo era efetuado por um “programa” contido numa fita de papel perfurado. O equipamento usava válvulas, mas já possuía circuitos sofisticados para geração dos harmônicos, filtragem, geração de envoltória, modulação, mixagem etc.

2a Fase: Transistores e Chips

Em 1948, depois de exaustivas pesquisas, surgia nos laboratórios Bell (USA) o primeiro transistor. As conseqüências que este novo dispositivo trouxe para o mundo foram de enorme impacto, pois ele possibilitou significativas reduções de tamanho, de consumo de energia e, sobretudo, de custo nos equipamentos eletrônicos. Obviamente, a indústria musical logo também tratou de aproveitá-lo.

Ainda no final da década de 1940, enquanto tocava seu órgão eletrônico em casa, o norte-americano Harry Chamberlin imaginou um instrumento que também pudesse reproduzir sons de outros instrumentos. O gravador de fita começava a se tornar mais popular, e Chamberlin construiu um equipamento, o Rhythmate 100, com 14 loops de fitas contendo gravações de padrões de acompanhamento de bateria. Anos depois, já na década de 1960, passou a construir o modelo Chamberlin 600, controlado por um teclado de 35 notas, que usava fitas de 3/8” e continha gravações de instrumentos acústicos. Apesar de ter conseguido algum sucesso, por ser uma novidade, o Chamberlin tinha deficiências graves em sua construção que, freqüentemente, estragavam as fitas. Tentando obter uma solução, Chamberlin pediu ajuda a uma empresa inglesa chamada Bradmatic que, em 1966, adquiriu os direitos de usar sua patente, e passou a produzir novos modelos já com o nome Mellotron. Paralelamente, Chamberlin continuou a produzir seus instrumentos nos EUA, até a década de 1970.

tec_ins08

O Mellotron usava o mesmo princípio original do Chamberlin, mas com vários aperfeiçoamentos mecânicos. Possuía um teclado de 35 notas e utilizava um loop de fita sem-fim associado a cada tecla, contendo a gravação do instrumento naquela nota. As fitas eram de 3/8”, com três pistas, de forma que o músico podia selecionar um dos três timbres que estavam gravados nas fitas. Jogos de fita eram vendidos com uma variedade de combinações de instrumentos diferentes (cordas, corais, flautas, metais, efeitos etc). Obviamente, o Mellotron sofria com as limitações inerentes ao processo de reprodução de som por fita magnética, com uma resposta de freqüência ruim, e muitos problemas mecânicos, desgaste de cabeças magnéticas e coisas do gênero. É considerado o primeiro “sampler”, e foi muito usado pelos principais grupos de rock progressivo da década de 1970.

Ainda que as experiências com instrumentos musicais puramente eletrônicos nunca tenham sido interrompidas (a Yamaha começou a produzir órgãos eletrônicos em 1952), os desenvolvimentos mais significativos utilizando tecnologia de semicondutores surgiram somente no início da década de 1960, quando dois norte-americanos começaram a experimentar o uso de circuitos eletrônicos para a síntese de sons.

Na California, Don Buchla construiu seu primeiro sintetizador modular em 1963, encomendado pelo San Francisco Tape Music Center, um centro de pesquisas de “musique concrète” (nome dado à música eletrônica naquela época). O sintetizador de Buchla gerava os sons por processo subtrativo, possuindo vários módulos, cada qual com uma função específica no processo de síntese (oscilador, filtro, gerador de envoltória etc). O meio de controle era um teclado feito com placas sensíveis à pressão do toque, e pouco depois Buchla também desenvolveu um seqüenciador analógico, que era capaz de memorizar algumas notas em loop, acionando o sintetizador.

tec_ins09Quase ao mesmo tempo, em Nova York, Bob Moog começou a construir seus primeiros equipamentos. Primeiro vieram os Theremins e, logo depois, surgiu algo que daria origem a uma “espécie” que ficou famosa durante muitos anos: o sintetizador analógico baseado em módulos controlados por tensão (“voltage controlled”). Depois de apresentar sua idéia no boletim da Audio Engineering Society, Moog começou a obter sucesso construindo módulos sob encomenda. Mas a consagração do sintetizador Moog e seu merecido reconhecimento como um verdadeiro instrumento musical só aconteceu mesmo em 1968 com o lançamento do belíssimo álbum “Switched-On Bach”, em que Walter Carlos usou somente sintetizadores modulares Moog em seus arranjos eletrônicos para músicas barrocas. Os sintetizadores construídos por Moog eram monofônicos (não podiam fazer acordes), usavam o teclado como meio de controle (sem sensibilidade ao toque), e a configuração do timbre era feita conforme o tipo de interconexão dos diversos módulos, efetuada por cabos (“patch-cords”). É daí que vem o nome de “patch”, usado para designar a programação de timbres nos sintetizadores.

tec_ins10Infelizmente, o trabalho pioneiro de Buchla é pouco comentado, provavelmente, por não ter se transformado em produto comercial. Já os instrumentos Moog dispensam qualquer comentário, uma vez que se tornaram um marco na história dos sintetizadores, como o famoso modelo modular usado por Keith Emerson (Emerson, Lake & Palmer) e, sobretudo, o Minimoog, que foi usado pela maioria dos tecladistas progressivos. Todos esses instrumentos adotavam a mesma tecnologia, usando processo de síntese subtrativa implementada por circuitos analógicos transistorizados (alguns deles bastante complexos, como o incomparável filtro de Moog). Outra empresa norte-americana também pioneira na produção comercial de sintetizadores foi a ARP, fundada pelo engenheiro Alan Pearman, que construiu alguns equipamentos marcantes da década de 1970, como o ARP 2600, um sintetizador modular (síntese subtrativa) bastante poderoso, e o ARP Strings, um teclado polifônico que gerava timbres de cordas e metais, sintetizados também por circuitos analógicos.

Na Europa, dentre vários que apareceram e sumiram do mercado durante o período de 1960-80, o que mais se destacou foi o EMS VCS3, desenvolvido pela empresa inglesa Electronic Music Studios, de Peter Zinovieff. Era um equipamento bem pequeno e gerava os sons por síntese subtrativa, também com módulos internos (osciladores, filtro etc.) controlados por tensão. Não possuía um teclado, mas apenas um joystick e vários botões, e a interligação dos módulos era feita por pinos enfiados numa matriz no painel (posteriormente, o modelo VCS4 incorporou um teclado). Este instrumento foi usado pelo Pink Floyd e por muitos outros artistas daquela época.

A década de 1970 foi marcada pela forte entrada dos fabricantes japoneses no mercado, onde, desde então, têm se mantido na liderança do mercado de instrumentos musicais eletrônicos, graças ao enorme trabalho de pesquisa e desenvolvimento, aliado às condições peculiares de investimento que existem por lá.

A Yamaha, tradicional fabricante de pianos acústicos desde 1887, e que já produzia os órgãos Electone na década de 1970, passou também a fabricar pianos eletrônicos e sintetizadores, com seus pequeninos SY-1 e SY-2, e depois o mais conhecido CS-80. É importante destacar que a empresa já vinha se aprimorando tecnologicamente, com a produção de circuitos integrados (chips) especiais desde 1971.

A Korg, que já comercializava órgãos eletrônicos (Keio Organ) desde meados da década de 1960, em 1973 apresentou seu primeiro sintetizador, o Mini-Korg, que era monofônico, utilizava síntese subtrativa e possuía um teclado de 3½ oitavas. Em 1975 foi lançado o Maxi-Korg, com capacidade duofônica e, em 1977, foi lançado o PS-3100, um sintetizador modular polifônico, que não teve sucesso comercial devido a seu alto custo.

Em 1972 foi fundada a Roland, que no mesmo ano lançou o SH-1000, o primeiro sintetizador japonês, um teclado utilizando síntese subtrativa analógica. Em 1976 foi lançado o System 700, um poderoso sistema modular orientado para estúdios.

O segmento de sintetizadores começou a ficar tão interessante comercialmente na década de 1970, com tantos fabricantes surgindo a cada ano, que nos EUA existiam duas fábricas de semicondutores voltadas exclusivamente para a produção de chips com circuitos para síntese subtrativa, que foram a Curtis (CEM) e a Solid State Micro Technology (SSM). Elas ofereciam chips com módulos controlados por tensão: geradores de forma-de-onda (VCO), filtros (VCF) e geradores de envoltória (VCA). Vários fabricantes, incluindo E-mu, Oberheim e Sequential Circuits, adotaram esses chips em seus instrumentos.

3a Fase: Microprocessadores

O final da década de 1970 foi marcado pela popularização dos microprocessadores, que saíram das aplicações militares e encontraram um vasto mercado em diversos outros setores, dentre eles a indústria musical. Logo começaram a surgir empresas cujo perfil estava focado mais na eletrônica digital, e não mais nos circuitos analógicos das décadas anteriores. Isso causou um desequilíbrio muito grande na situação que estava estabelecid , criando dificuldades para as empresas mais “tradicionais” como Moog e ARP, por exemplo, que não tinham domínio suficiente da nova tecnologia. Nessa “nova onda”, surgiram nos EUA algumas empresas marcantes no setor de sintetizadores.

tec_ins11

A E-mu começou a produzir sintetizadores em 1975, com sistemas modulares semelhantes aos então famosos Moog. O sintetizador E-mu Modular, apesar de monofônico como os seus contemporâneos, usava no teclado um circuito digital para varredura da posição das teclas. Essa inovação tornar-se-ia padrão anos depois, pois foi a solução para a detecção do acionamento das teclas e respectivo endereçamento aos osciladores das vozes nos sintetizadores polifônicos. A E-mu licenciou o projeto desse teclado para a Oberheim e a Sequential, o que lhe proporcionou uma boa receita durante alguns anos.

Tom Oberheim começou a se envolver com instrumentos musicais logo no início da década de 1970, quando construiu seus primeiros pedais de efeito, comercializados pela Maestro. Com a efervescência do mercado de sintetizadores, no entanto, direcionou seu trabalho para a produção de um equipamento que pudesse ser competitivo em qualidade e recursos e, em 1974, apresentou o SEM (Synthesizer Expander Module), um módulo contendo todas as funções de um sintetizador: dois osciladores, dois geradores de envoltória e um filtro, todos os módulos controlados por sinais de tensão, seguindo os padrões adotados pelos demais fabricantes. O SEM não possuía teclado e podia ser controlado por qualquer outro sintetizador que tivesse uma saída CV (“control voltage”) padronizada em 1 volt/oitava. A partir daí, Oberheim construiu vários sintetizadores que utilizavam dois ou mais módulos SEM, permitindo assim a geração de duas ou mais notas simultâneas. Isso só foi possível porque a Oberheim utilizava em seus sintetizadores o teclado com varredura digital, fabricado pela E-mu. Surgiram, então, os primeiros sintetizadores polifônicos.

tec_ins13Um dos grandes marcos na indústria dos sintetizadores foi o Prophet-5, produzido pela Sequential Circuits entre 1978 e 1984, que foi o primeiro sintetizador polifônico (5 vozes) programável e capaz de armazenar as programações de timbres na memória (40 programas). Desenvolvido por John Bowen e Dave Smith (este último foi um dos principais idealizadores do MIDI), o Prophet-5 estabeleceu de fato um novo conceito em sintetizadores, trazendo definitiva e irreversivelmente a tecnologia digital para a indústria de instrumentos musicais. Apesar de trabalhar com síntese subtrativa analógica (os primeiros modelos usavam chips da SSM, depois substituídos pelos da Curtis), todo o controle do acionamento de notas e geração de sons era feito digitalmente, sob o comando de um microprocessador Zilog Z-80. Além da memorização interna de programas, o Prophet-5 também possuía uma interface digital para transferi-los para uma fita de gravador cassete.

A utilização de microprocessadores passou a ser cada vez mais intensa, e os instrumentos passaram a ter cada vez mais recursos. No início da década de 1980 surgiu então uma nova categoria de instrumentos musicais: o sampler. O primeiro modelo comercial foi apresentado em 1980 pela empresa australiana Fairlight, e seu preço era cerca de 30 mil dólares na época. Uma máquina totalmente digital, com oito vozes de polifonia, um teclado de seis oitavas, duas unidades de disquete de 8” (para armazenamento dos sons digitalizados), e um monitor de vídeo para edição manual na tela, com uma caneta especial. O instrumento, criado por Kim Ryrie e Peter Vogel, era controlado por dois microprocessadores Motorola 6800, e além de ser um sampler (gravação e reprodução digital de sons, com resolução de 8 bits), também operava com síntese aditiva. O custo muito alto aliado a problemas de comercialização dificultaram o sucesso do Fairlight, que mesmo assim cativou vários artistas na época como, por exemplo, Peter Gabriel, Thomas Dolby, Stevie Wonder e Kate Bush.

tec_ins13aNa mesma onda do Fairlight, surgiram também nos EUA o Synclavier, com um sistema básico também em torno de 30 mil dólares, e o Emulator, da E-mu, que foi o primeiro sampler “acessível” (para quem tivesse 9 mil dólares no bolso). Todos eles eram digitais e trabalhavam com samples de 8 bits. Na Alemanha, surgiu o PPG Wave, que custava cerca de 10 mil dólares, e podia reproduzir amostras pré-digitalizadas (depois aperfeiçoado para operar também como sampler).

Estava decretado o fim dos sintetizadores analógicos, e depois de vários instrumentos “híbridos” (geração do som digital e processamento analógico), o golpe de misericórdia veio em 1984 com o lançamento do Yamaha DX7 que, além de ser totalmente digital, gerava o som por um processo jamais visto antes. Depois do insucesso obtido com seu primeiro sintetizador polifônico CS80, a Yamaha foi buscar na Universidade de Stanford a tecnologia que causou um dos maiores impactos no mercado dos instrumentos musicais: a síntese FM, desenvolvida por John Chowning, e que permite a criação de sons de enorme complexidade através da modulação da freqüência de uma senóide por outra senóide de freqüência igual ou próxima. O processo foi aperfeiçoado, e a Yamaha integrou em poucos chips toda a circuitaria necessária, o que possibilitou uma redução no custo final de fabricação. Além da enorme gama de timbres possíveis, o que mais impressionava era a expressividade, podendo-se ter uma mudança radical de sonoridade dependendo da força do toque na tecla. Nada de VCOs e filtros! O DX7 ainda trazia mais inovações impressionantes: polifonia de 16 notas, teclado com sensibilidade a key velocity e aftertouch (controle de expressividade também por sopro ou pedal), 32 memórias internas e mais 64 em cartucho, e uma das primeiras implementações de MIDI. O DX7 teve muitos “herdeiros”, comercializados pela Yamaha por vários anos, e a síntese FM ainda hoje é utilizada – de forma bastante simplificada – nos chips sintetizadores que existem nas placas de som mais simples.

tec_ins13b

Para concorrer com o DX7, que talvez tenha sido um dos sintetizadores mais vendidos até hoje, a Roland apresentou o D-50, que usava formantes de transientes de sons sampleados, misturadas a outras formas-de-onda, e outros fabricantes também tentaram inovar de alguma forma, como o Casio CZ 5000, que usava síntese por modulação de fase, e o Prophet VS, que usava síntese vetorial, que depois foi adotada também no Yamaha SY-22 e no Korg Wavestation.

Ainda que os processos inovadores, como a síntese FM, permitissem a criação de timbres impressionantes, o mercado cada vez mais pedia sons acústicos: piano, sax, cordas etc. Como os samplers eram caros e inacessíveis para a maioria dos músicos, a saída foi fazer instrumentos com várias amostras na memória, pré-sampleadas na fábrica (como o conceito do PPG). Nessa linha, surgiram então inúmeros instrumentos “sample-players” que predominam até hoje. Esses instrumentos possuem controle, geração e processamento do som totalmente digital, embora o processo de modelagem do timbre seja a síntese subtrativa (filtros etc). Ao fim da década de 1980 já havia muitos instrumentos digitais com timbres sampleados, dentre eles o Korg M1, que consolidou o conceito de workstation (sintetizador com seqüenciador), o E-mu Proteus, o Roland U-110, e alguns outros.

Com o aumento da capacidade de processamento digital, novos desenvolvimentos passaram a ser viáveis, como a síntese por modelagem física, presente na série Yamaha VL e nos Roland VG-8, por exemplo. A partir daí, a indústria vem direcionando em produtos cada vez mais sofisticados, baseados em chips proprietários.

4a Fase: Softwares e Dispositivos Virtuais

tec_ins13cA fase atual, a partir de meados da década de 1990, vem sendo marcada pelo aprimoramento da qualidade das amostras sampleadas, graças ao barateamento das memórias digitais. Outra tendência é o retorno ao controle do som em tempo-real, praticamente impossível nos instrumentos que só tinham um visor e meia dúzia de botões: hoje, quase todos os sintetizadores vêm com botões rotativos ou deslizantes no painel, que dão ao músico a possibilidade de ajustar com precisão, e a qualquer momento, vários parâmetros do som que está sendo executado.

O domínio e popularização da tecnologia de processamento digital de sinais (DSP) também tem sido fundamental para o surgimento de novas empresas e produtos. Apesar de a indústria estar cada vez mais fechada em chips proprietários, com o barateamento dos microcomputadores e o aumento impressionante do seu poder de processamento, basta ter um bom conhecimento em DSP para se desenvolver uma aplicação capaz de gerar e processar sons com qualidade. Dentro desse conceito, estão surgindo cada vez mais sintetizadores virtuais, que funcionam dentro do computador, e por isso podem custar bem menos do que seus similares “palpáveis”. Nossa abordagem histórica acaba aqui.

Nos próximos artigos estaremos apresentando os detalhes de cada um dos processos de síntese mais importantes, dos meios de controle adotados, e outros tópicos relevantes ao nosso assunto.

 

Parte 2: Síntese Subtrativa

Neste artigo apresentamos a síntese subtrativa, assim como suas variações de implementação. Este processo tem sido o mais usado, talvez por ser o mais intuitivo de todos.

Definição

O processo de síntese subtrativa, como o nome sugere, consegue obter as alterações de timbre através da subtração de conteúdo harmônico de um som original. Para isso, primeiramente, é gerado no oscilador (oscillator) um sinal contendo harmônicos que, em seguida, é aplicado a um filtro (filter) ajustável, onde parte dos harmônicos é retirada. Esse filtro pode ser estático, atuando sempre numa determinada porção do espectro harmônico do som, ou pode variar no tempo, produzindo alterações diferentes no som original durante toda a sua execução. Além de subtrair harmônicos (reduzindo suas intensidades), eventualmente, o filtro também pode dar ênfase a uma determinada faixa do espectro, criando o efeito chamado de ressonância. O terceiro elemento do processo é o amplificador (amplifier), cuja função é controlar a dinâmica da intensidade do som no decorrer de sua execução.

tec_ins14

Figura 2.1: Arquitetura típica de um sintetizador analógico

As características do sinal original gerado pelo oscilador e a forma de atuação do filtro são fatores muito importantes para o resultado final do processo, e é por isso que alguns instrumentos podem ser mais eficazes do que outros, e até mesmo melhores em termos de qualidade para determinados timbres. Um exemplo clássico disso é o filtro dos sintetizadores Moog da década de 1970, que chegou a ser copiado pela ARP (e depois abandonado por ela, pois o circuito era patenteado por Moog).

Além do oscilador, filtro e amplificador, outros elementos também são utilizados no processo de síntese subtrativa, para que se possa ter recursos de dinâmica (envoltória) e efeitos adicionais no timbre final, como veremos no decorrer do texto.

Síntese Subtrativa Analógica

Como vimos anteriormente em nossa abordagem histórica, os primeiros sintetizadores comerciais (a partir do final da década de 1960), usavam circuitos eletrônicos analógicos baseados na tecnologia de semicondutores que estavam disponíveis na época, ou seja, transistores. Posteriormente, passaram a adotar também chips com amplificadores operacionais e também circuitos integrados desenvolvidos especificamente para aplicações musicais. Embora o transistor fosse mais rático e eficiente do que a válvula, alguns dos circuitos transistorizados dos sintetizadores tinham problemas de instabilidade térmica, de forma que à medida que os componentes esquentavam, seus pontos de operação mudavam, causando uma variação nas características de saída. Isso afetava, principalmente, os osciladores e prejudicava a afinação do instrumento. Uma das soluções encontradas foi manter sempre numa determinada temperatura os transistores principais do oscilador, de forma que, mesmo havendo variações na temperatura ambiente, o circuito permaneceria relativamente estável. Ainda que não se conseguisse atingir a perfeição, isso funcionou razoavelmente bem até o surgimento de circuitos com osciladores digitais, muito mais precisos.

O oscilador de um sintetizador analógico (VCO – Voltage Controlled Oscilator) produz formas-de-onda (waveforms) simples, se comparadas às dos instrumentos acústicos (veja Fig.2, ao lado), o que torna muito difícil a reprodução de timbres convencionais por este processo. Por outro lado, as formas-de-onda puramente eletrônicas permitiram a criação de novas sonoridades nunca antes ouvidas, o que foi o principal fator de sucesso dos sintetizadores, quando surgiram.

Outra vantagem da síntese eletrônica é o alcance em termos de notas, pois enquanto cada instrumento acústico possui uma extensão limitada de notas, o sintetizador pode produzir notas em praticamente todo o espectro audível (o oscilador do Minimoog, por exemplo, podia gerar freqüências desde 0,1 Hz até 20 kHz).

As formas-de-onda mais encontradas nos osciladores dos sintetizadores analógicos, a saber:

 

tec_ins15fSenóide (sine wave): É o sinal equivalente à função matemática “seno”, e caracteriza-se pela ausência total de harmônicos, isto é, só possui a freqüência fundamental, sendo assim o som mais “puro” que se pode ouvir. Por razões óbvias, ela tem pouca utilidade na síntese subtrativa (a não ser quando se queira simular um assobio). Nos poucos sintetizadores analógicos que a utilizavam, a senóide geralmente era obtida a partir de ondas triangulares, devidamente filtradas ou alteradas por circuitos não lineares, de forma que nem sempre eram puras.

tec_ins15d

 

Quadrada (square wave): É um sinal que oscila entre dois níveis, e é facilmente obtida por circuitos digitais. Seu som se assemelha ao de um clarinete, e por possuir apenas harmônicos ímpares, seu uso em síntese subtrativa também é um pouco restrito.

 

tec_ins15eTriangular (triangle wave): Também só possui harmônicos ímpares, mas eles têm intensidades diferentes do que na onda quadrada. Os sintetizadores analógicos geravam ondas triangulares por meio de circuitos integradores, onde um capacitor é carregado e descarregado por corrente, produzindo assim rampas de tensão lineares, ascendente e descendente.

 

tec_ins15cDente-de-serra (sawtooth wave): Esta onda, diferentemente da triangular, possui uma rampa linear apenas no trecho da subida do sinal, e a descida ocorre abruptamente, como na onda quadrada. Por causa dessa assimetria, ela possui harmônicos ímpares e pares sendo, portanto, bastante útil no processo de síntese subtrativa. Os timbres de strings nos sintetizadores analógicos eram criados a partir deste sinal.

 

tec_ins15bPulso (pulse): É uma variação da onda quadrada, onde as partes superior e inferior não são iguais, e por isso contém harmônicos ímpares e pares. Ela pode ser gerada facilmente por circuitos digitais ou, então, por circuitos analógicos comparadores a partir de uma onda dente-de-serra. Geralmente, os sintetizadores analógicos permitiam que se ajustasse a largura do pulso, conseguindo-se assim variações de conteúdo harmônico. Em muitos deles, podia-se aplicar uma modulação cíclica à largura do pulso, obtendo-se um sinal chamado de PWM (pulse width modulation), de sonoridade muito interessante.

 

tec_ins15aRuído (noise generator): Além das formas-de-onda mencionadas acima, vários sintetizadores analógicos possuem também um gerador de ruído cujo sinal pode ser adicionado aos sinais puros, e assim simular certas peculiaridades dos instrumentos acústicos, como o barulho do sopro numa flauta ou do impacto do ataque de um som percussivo. Além disso, o gerador de ruído permite a criação de vários tipos de efeitos sonoros, desde chuva e trovões até foguetes e tiros. A geração de ruído nos sintetizadores antigos era obtida a partir do ruído térmico de um transistor, devidamente amplificado e filtrado.

Para conseguir maior diversificação de sonoridade com os osciladores analógicos da época, os fabricantes colocavam dois ou mais osciladores em paralelo, somando suas saídas, de forma a obter uma composição harmônica mais complexa, a partir da adição de sinais diferentes. Outro recurso era manter esses osciladores ligeiramente fora de sintonia, produzindo um batimento das freqüências, o que resultava num som encorpado (na verdade, dessintonizar os osciladores não era muito difícil por causa da instabilidade térmica dos circuitos; difícil mesmo era mantê-los exatamente na mesma freqüência!). Por outro lado, como os circuitos analógicos eram imprecisos e nem sempre totalmente lineares, mesmo as formas-de-onda “puramente” eletrônicas não eram assim tão puras, de maneira que uma onda dente-de-serra com o pico um pouco arredondado, ou uma onda quadrada um pouco inclinada, geralmente, criavam uma sonoridade mais interessante. Essas imperfeições é que davam aos sintetizadores antigos o som cheio (fat sound), tão desejado hoje pelos tecladistas que usam instrumentos digitais, o que forçou os fabricantes a um retorno no tempo, recriando os timbres vintage nos sintetizadores modernos.

Além da seleção da forma-de-onda, os osciladores dos sintetizadores analógicos permitem ao músico selecionar sua região de atuação, em opções de oitava, como nos ajustes de transposição dos teclados atuais. Os seletores de região geralmente adotavam a mesma notação dos órgãos, usando as referências dos tamanhos de tubos: 16’ (mais grave), 8’, 4’ e 2’ (mais agudo).

Uma vez gerado pelo oscilador (VCO), o som é direcionado ao filtro (VCF), onde a sua composição harmônica é devidamente modificada. É aqui onde se pode conseguir as alterações mais drásticas, sobretudo se o filtro puder operar em ressonância. A maioria dos filtros dos sintetizadores analógicos é do tipo passa-baixas (low-pass filter), o que significa que ele atenua as freqüências acima de determinada referência, deixando passar intactas apenas aquelas que estejam abaixo da referência. A freqüência de referência para o início da atenuação é chamada de freqüência de corte, e a quantidade de atenuação a ser imposta às freqüências que estão acima da freqüência de corte vai depender da construção do filtro, podendo proporcionar quedas de 12, 18 ou 24 dB por oitava. A “imperfeição” analógica também aparece na atuação do filtro, de maneira que seu comportamento é influenciado pelas eventuais não-linearidades e instabilidades dos circuitos transistorizados (Fig.2.3).

tec_ins17

Figura 2.3: Diagrama esquemático do filtro do Minimoog, onde se pode observar as cadeias de transistores, que lhe davam a característica sonora peculiar

Nos filtros em que há o recurso de ressonância (ou ênfase), pode-se ajustar o ganho que será aplicado ao sinal nas proximidades da freqüência de corte, o que criará um pico no espectro do sinal na região próxima à freqüência de corte e, dependendo da intensidade dessa ênfase, ouvir-se-á uma característica “sibilante” no som. Os efeitos obtidos com a ressonância do filtro foram talvez os mais marcantes no início do uso dos sintetizadores (um bom exemplo disso é o álbum “Journey To The Centre Of The Earth”, de Rick Wakeman).

Existem também dois outros tipos de filtros que podem existir nos sintetizadores: o passa-alta e o passa-banda. O primeiro funciona exatamente oposto ao já conhecido passa-baixa, e elimina as componentes harmônicas que estejam abaixo da freqüência de corte, resultando num som muito “fino”. Já o filtro passa-banda só permite passar um segmento do espectro harmônico que esteja entre duas determinadas freqüências, o que resulta um som interessante, mais usado para simular voz, por exemplo.

O gerador de envoltória (Envelope Generator ou Contour Generator) é o elemento que controla o comportamento do filtro e do amplificador (e em alguns sintetizadores, também do oscilador), permitindo que se determine uma variação dinâmica (time-variant) da intensidade e composição harmônica do som no tempo. A execução de um som é dividida em quatro estágios básicos, e é no gerador de envoltória que eles podem ser ajustados.

  • Ataque (attack): É o transiente inicial do som, isto é, o tempo que o som leva para sair do “zero” (disparado por “Note On”) e atingir um ponto de máximo; é ele quem determina, por exemplo, se um som é percussivo ou não.
  • Decaimento (decay): É o tempo decorrido desde o fim do ataque (ponto de máximo) até o ponto em que o som se sustenta no próximo estágio.
  • Sustentação (sustain): Este terceiro estágio pode ser definido como um período de tempo ou não, pois se enquanto a nota estiver sendo executada a sustentação for permanente (como num som de órgão), o tempo poderá ser infinito; portanto o estágio de sustentação é definido mais como um nível do que como um período.
  • Reliberação (release): É o tempo que o som leva para ir do ponto de sustentação até o repouso final (zero), e nos sons sustentados, como o órgão, é disparado quando se solta a tecla (“Note Off”).

Por causa desses quatro estágios é comum chamar o gerador de envoltória também de gerador de ADSR, mas existem outras variações na implementação dos geradores de envoltória, desde os mais básicos, com os quatro estágios descritos acima, até dispositivos sofisticados com seis ou mais estágios, permitindo a criação de alguns efeitos interessantes. A decisão de um fabricante sofisticar seus geradores de envoltória certamente está associada tanto à possibilidade de adicionar circuitos (e custos) para tal, em contrapartida com o resultado real que se pode obter.

tec_ins18

Figura 2.4: Estágios básicos de envoltória, que pode ser aplicada ao amplificador (para alterar a intensidade) e ao filtro (para alterar composição harmônica)

A atuação do gerador de envoltória sobre o amplificador, controlando a intensidade (amplitude) do sinal, é que permite criar as variações de intensidade durante a execução do som. No caso do piano, por exemplo, quando se toca uma nota o martelo percute a corda, produzindo um tempo de ataque bastante rápido e, logo em seguida, um decaimento também relativamente rápido (características de sons percussivos). Mas a corda ainda se mantém vibrando por algum tempo (estágio de reliberação) e não há um nível permanente de sustentação, pois o som do piano silencia obrigatoriamente, mesmo que o músico permaneça com a tecla pressionada. Já no caso de um som de órgão, o ataque é rápido, mas como o nível de sustentação é alto, praticamente não há decaimento e a reliberação só ocorre quando o músico solta a tecla, finalizando a sustentação.

Quando o gerador de envoltória é aplicado ao filtro, ao invés de controlar intensidade, ele controla a variação do valor da freqüência de corte no decorrer da execução da nota. Nos timbres de trumpete e de metais em geral, o ataque do filtro não é imediato, de forma que o som começa um pouco “fechado”, vai ficando mais brilhante no decorrer do ataque, e depois fecha um pouco de novo, quando o som já está sustentado. Des a forma, para simular esse comportamento o gerador de envoltória deve ter um ataque não muito rápido, um decaimento suave e um nível de sustentação abaixo do máximo, para que o som durante a sustentação não fique tão brilhante quanto no ataque. A graduação exata desses tempos e níveis é mais bem conseguida pela experimentação, ouvindo-se o resultado.

Na maioria dos filtros há também um ajuste de quantidade de envoltória (amount), que permite dosar o quanto o gerador de envoltória irá efetivamente atuar sobre o filtro. Em alguns sintetizadores, existe ainda a possibilidade de se inverter a polaridade do sinal do gerador de envoltória, o que irá produzir um efeito exatamente ao contrário do que o normal. A atuação da envoltória sobre o filtro é que pode produzir variações mais drásticas no timbre, pois faz com que a composição harmônica se altere durante a execução da nota. Um som de piano, por exemplo, possui mais harmônicos no ataque (por isso é mais brilhante), e vai ficando mais “aveludado” à medida que sua intensidade vai caindo. Para simular isso é necessário ajustar adequadamente os parâmetros dos geradores de envoltória do filtro e do amplificador, para que atuem em conjunto reproduzindo um resultado final natural e convincente.

Nos sintetizadores analógicos, o gerador de envoltória é implementado por um circuito onde a carga e descarga de um ou mais capacitores definem os tempos de ataque, decaimento e reliberação. O sinal de tensão gerado nesse circuito é, então, aplicado à entrada de controle de ganho do amplificador ou do ajuste da freqüência de corte do filtro (falaremos mais adiante sobre tensão de controle).

Uma terceira atuação do gerador de envoltória trata-se de quando ele é aplicado ao oscilador. Nesse caso, pode-se conseguir variações de afinação no decorrer da nota, como o efeito de portamento, por exemplo. Entretanto, na maioria dos sintetizadores analógicos antigos não havia um gerador de envoltória associado ao oscilador, e o portamento era um recurso específico.

Outros dispositivos

Além dos blocos de circuitos já descritos, o sintetizador analógico possui também outros elementos auxiliares, de grande importância sobretudo como meios de expressividade e controle. Um deles é o LFO (low frequency oscillator), um oscilador de baixa freqüência (cerca de 0,01 Hz a 20 Hz) que pode ser usado como um modulador de outros blocos. Quando o LFO é aplicado ao oscilador, cria uma modulação de freqüência, produzindo vibrato; quando aplicado ao amplificador, cria uma modulação de amplitude, produzindo tremolo; e quando ele é aplicado ao filtro, cria uma variação cíclica de composição harmônica, podendo produzir efeitos interessantes como o wah-wah, por exemplo. Dependendo do sintetizador, o LFO pode possuir formas-de-onda senoidal (que produz a modulação mais suave), triangular, dente-de-serra ou quadrada. A implementação do circuito do LFO segue os mesmos princípios já descritos anteriormente sobre o oscilador principal. A quantidade de modulação aplicada pelo LFO em geral é ajustada por um controle específico denominado modulation wheel, que nos sintetizadores Moog e Prophet é implementado por uma “roda” de controle que aciona um potenciômetro, enquanto que nos sintetizadores EMS e Polyfusion a modulação é controlada por um bastão de joystick. Em alguns sintetizadores, como o Prophet-5, o destino do sinal do LFO pode ser selecionado pelo músico.

Outro dispositivo de controle é o pitchbend, que atua sobre a freqüência gerada pelo oscilador, permitindo ao músico variar para cima ou para baixo a altura da nota. Na maioria dos sintetizadores analógicos ele é uma roda, semelhante ao modulation wheel, e mantém sua posição de repouso no centro, por meio de uma mola (alguns sintetizadores utilizam também um joystick, ao invés da roda). A intensidade da ação do pitchbend geralmente pode ser ajustada pelo músico.

Em quase todos os sintetizadores analógicos produzidos entre 1960/1980, os módulos de circuitos eram controlados por tensão (voltage-controlled), e por isso o oscilador, o filtro e o amplificador eram designados, respectivamente, como VCO (voltage-controlled oscillator), VCF (voltage-controlled filter) e VCA (voltage-controlled amplifier). Essa concepção veio dos primeiros sintetizadores realmente modulares (Moog, Buchla, E-mu), onde os módulos eram montados num grande painel e interligados por meio de cabos. Dessa forma, para se “programar” um novo timbre, era necessário refazer as conexões físicas dos cabos entre os módulos, assim como os devidos ajustes de parâmetros. Esses cabos são chamados de patch-chords; e é daí que vem o nome patch, usado até hoje para se designar uma programação de timbre.

O uso de tensões de controle tinha vantagens e desvantagens. Uma das vantagens nos sintetizadores modulares era a possibilidade de se ligar a saída de um módulo a outro, o que permitia inúmeras combinações de arquitetura dos módulos. Mas havia algumas complicações técnicas, como no caso do VCO.

Variações de Temperatura

Se o VCO respondesse linearmente à tensão de controle para gerar as freqüências das notas musicais, caso a faixa de tensões de controle fosse, por exemplo, de 0 a 10 volts para se variar a freqüência de 20 Hz a 20 kHz, então o ajuste das notas mais graves no VCO teria que ser feito por uma tensão da ordem de dezenas de milivolts, com uma diferenças de cerca de 5 mV entre duas notas graves. Enquanto que para as notas mais agudas a tensão de controle teria que ser da ordem de 8 volts, com uma diferença de meio volt para duas notas. A solução foi adotar um conversor linear/exponencial, onde a variação linear da tensão de controle (0 a 10 volts, por exemplo), faz a freqüência do VCO variar exponencialmente dentro do espectro de áudio. Quase todos os fabricantes adotaram o padrão “1 volt / oitava”, onde a cada aumento de 1 volt na tensão de controle o oscilador dobra sua freqüência. Isso facilitava bastante a implementação do circuito do teclado, do pitchbend, portamento, LFO etc., pois bastava adicionar um valor fixo de tensão para se obter a mesma variação de intervalo musical, independente da nota que o oscilador estiver gerando (ou seja, um aumento de 83 mV faz a freqüência do VCO subir um semitom, qualquer que seja a nota que ele estiver tocando). O difícil era construir um conversor linear/exponencial estável, pois para conseguir a tal curva exponencial, os circuitos tinham que utilizar transistores operando em condições críticas em relação a variações de temperatura Por isso, os primeiros sintetizadores analógicos tinham grandes problemas de estabilidade térmica. Posteriormente, com o surgimento de circuitos integrados mais sofisticados e mais adequados a essas aplicações, esse problema acabou sendo minimizado bastante (mas aí os circuitos digitais e microprocessadores já estavam começando seu domínio – e isso é uma outra história!)

Teclado Monofônico Uma das maiores limitações dos sintetizadores analógicos mais antigos era o fato de eles serem monofônicos, isto é, só podiam gerar uma nota de cada vez, e, portanto, a estrutura que detalhamos acima – chamada de voz do sintetizador – era utilizada para produzir apenas uma única nota (e só havia uma estrutura dessas). Além do custo, havia também uma limitação técnica para isso, pois os teclados eram implementados com contatos auto-exclusivos em que ao se pressionar uma tecla as demais eram desabilitadas (veja Fig.2.5), o que só foi resolvido com o uso do gerenciamento digital das teclas ativadas no teclado (keyboard scanning). Ao se pressionar uma tecla, era direcionada ao VCO a tensão fixa de controle (CV – control voltage) correspondente àquela nota, e ao mesmo tempo era enviado aos geradores de envoltória um pulso de disparo (trigger).

tec_ins16

Figura 2.5

Na década de 1970, os sintetizadores analógicos passaram a utilizar chips de amplificadores operacionais (op-amps), que tinham a vantagem de reduzir espaço, consumo e custo. Nessa época, também surgiram alguns circuitos integrados mais sofisticados para uso específico em sintetizadores musicais, destacando-se os fabricados pelas empresas norte-americanas Curtis Electromusic Specialties (CES) e Solid State Micro Technology (SSM), que ofereciam chips com VCOs, VCFs, VCAs e geradores de ADSR (Fig.2.6).

tec_ins22

Figura 2.6: Data Sheet dos chips CEM 3340 e 3345 produzidos pela Curtis na década de 1970/80. Esses chips vinham com um VCO completo, com conversor exponencial, compensação térmica e três opções de formas-de-onda

A tecnologia foi evoluindo e idéias foram se tornando realidade. A empresa norte-americana E-mu (hoje associada à Creative Labs), projetava e construía enormes sintetizadores modulares semelhantes aos famosos Moog e, em 1973, desenvolveu e patenteou um teclado onde as várias notas simultâneas pressionadas pelo músico podiam ser detectadas por um circuito de varredura (scanning) digital, possibilitando passar as informações de cada uma a vários circuitos de geração de som (vozes) e a produção de mais de uma nota ao mesmo tempo. Surgia, então, o sintetizador polifônico.

Os primeiros sintetizadores polifônicos foram produzidos pela Oberheim, que licenciou o teclado da E-mu para usar em seus modelos polifônicos “4-Voice” e “8-Voice” e possuíam, respectivamente, 4 e 8 módulos básicos de voz Oberheim SEM (Synthesizer Expander Module), controlados pelo teclado da E-mu. Cada módulo SEM tinha dois VCOs, um VCF, um VCA, dois geradores de envoltória e um LFO. Além da Oberheim, o circuito do teclado da E-mu também foi licenciado para a Sequential Circuits, que o incluiu em seu famoso Prophet-5. Com a disponibilidade dos chips analógicos da Curtis e SSM e o uso da tecnologia digital para gerenciamento de teclado, os sintetizadores monofônicos foram gradualmente substituídos por máquinas com cada vez mais vozes de polifonia. Em contrapartida, os sistemas modulares – onde o percurso do sinal era essencialmente monofônico – transformaram-se em verdadeiros “dinossauros”.

Síntese Subtrativa Híbrida

À medida que a tecnologia digital foi barateando, a partir da metade da década de 1970, os microprocessadores tomaram conta definitivamente da indústria de sintetizadores. Além de instrumentos novos e melhores, uma outra mudança acontecia no mercado: empresas “tradicionais”, como a Moog e ARP, que não investiram adequadamente nessa nova tecnologia, deram lugar aos novos talentos que tinham o domínio dos microprocessadores, como a Sequential Circuits, por exemplo. E até o início da década de 1980, houve um pequeno período transitório dos instrumentos híbridos onde os “velhos” circuitos analógicos de geração de sons conviveram junto com a tecnologia de controle digital (Fig.2.7).

O exemplo clássico desta fase é o Prophet-5, considerado o primeiro sintetizador polifônico com armazenamento de programa. Ele possuía 61 teclas (não sensitivas), cinco vozes de polifonia e uma estrutura de síntese analógica subtrativa, baseada nos VCOs, VCFs, VCAs e ADSRs dos chips da SSM (substituídos depois pelos da Curtis). No painel havia botões rotativos para ajuste direto dos parâmetros de cada módulo, além de rodas de pitchbend e modulation. Um microprocessador Zilog Z-80 de 8 bits era o responsável pelo acionamento das cinco vozes a partir das notas executadas no teclado, bem como da alteração dos parâmetros em cada elemento de cada voz, a partir do ajuste dos botões do painel. A grande inovação era a possibilidade de se memorizar até 40 programações de painel (depois expandida para 120, com possibilidade de se transferir digitalmente o conteúdo da memória para um gravador cassete).

tec_ins23

Figura 2.7: Diagrama de uma parte do sintetizador híbrido Sequential Pro-One, onde um microprocessador (A) gerencia teclado, botões do painel, etc, e envia os comandos de tensão para os chips de geração de som e moduladores (B)

Até o início da década de 1980, o uso da tecnologia digital nos instrumentos musicais foi parcial, mais focalizada no controle e gerenciamento do que na síntese propriamente dos sons. Não por vontade do projetistas, mas sim porque ainda não era viável sintetizar por processos digitais. Apesar de muitas pesquisas no campo da síntese digital desde a década de 1970 (incluindo a da síntese FM, que veremos em outro artigo), o custo de implementação de um sintetizador digital naquela época era impraticável, sobretudo para as empresas norte-americanas, quase sempre descapitalizadas e operando nos limites de suas finanças.

A partir de então, os japoneses começaram a investir mais pesado em integração de componentes para a síntese de sons em seus instrumentos, e um outro exemplo de teclado híbrido é o Korg Poly-800, muito popular no Brasil na década de 1980, que também usava um processador Z-80 para controlar o sistema e gerenciar as memórias de programas. Korg Poly-800A geração de som nas suas oito vozes, no entanto, era feita por contadores digitais (designados como DCO – Digital Controlled Oscillator), com o processamento analógico feito por chips dedicados. A implementação de sintetizadores com circuitos analógicos foi ficando cada vez mais complicada e cara à medida que os músicos exigiam mais polifonia, o que requeria circuitos extras com VCOs, VCFs e VCAs, mais placas de circuitos etc. A solução parecia estar, definitivamente, na tecnologia digital.

Síntese Subtrativa Digital

Com os computadores e microprocessadores tornando-se mais baratos, a pesquisa no campo digital intensificou-se tremendamente, e assim a tecnologia de processamento digital de sinal (DSP – Digital Signal Porcessing) foi ficando mais acessível à indústria. Começaram, então, a surgir os primeiros sintetizadores digitais.

Na síntese subtrativa digital, ao invés de se ter os tradicionais circuitos de VCO, VCF, VCA e os respectivos geradores de envoltória, o sinal é gerado digitalmente e flui por canais digitais de DSP, que se encarregam de efetuar as alterações de amplitude e composição harmônica. Na grande maioria dos casos, a forma-de-onda é uma amostra digital (sample) de um som, devidamente armazenada na memória; essa amostra é lida e processada digitalmente por um ou mais chips de DSP. Hoje, cada fabricante possui seus próprios chips dedicados, otimizados para cada projeto, e por isso é muito difícil hoje alguém construir um sintetizador em casa, como era possível no passado, mesmo havendo chips de DSP genéricos comercializados por empresas de semicondutores e que podem ser adquiridos em lojas especializadas. Entretanto, o aumento da velocidade dos computadores já permite o uso de algoritmos de DSP por software, o que tem propiciado a criação de “sintetizadores virtuais” no computador. Mas isso será assunto para um artigo futuro.

Nesta corrida tecnológica sobreviveram as empresas que tiveram não só domínio da tecnologia digital, mas também capacidade de investimento pesado em chips dedicados. Ou seja, no cenário atual da indústria de instrumentos musicais (excluindo os “virtuais”) só há espaço para aqueles que podem investir pesado em tecnologia.

Os sintetizadores que utilizam amostras digitais como formas-de-onda são também chamados de sample players, e como as formas-de-onda não são mais sinais de tensão, como nos osciladores analógicos, mas sim dados armazenados numa tabela da memória, esses sintetizadores são também chamados de sintetizadores de wavetable.

tec_ins24

Figura 2.9: Diagrama em blocos da estrutura de síntese do Alesis QSR, onde todo o processo é efetuado digitalmente. O bloco “Voice” é o gerador de forma-de-onda, que utiliza amostras digitais (“samples”) armazenadas na memória.

O uso da tecnologia digital trouxe várias melhorias à síntese subtrativa. As mais evidentes são as possibilidades de mais formas-de-ondas a partir de amostras digitais e a precisão e estabilidade de afinação, que era o terror dos tecladistas da década de 1970. A redução drástica do “custo por voz” nos sintetizadores modernos também é uma vantagem inegável. Por outro lado, a tecnologia digital trouxe também algumas desvantagens. O uso de números “discretos” era um grande entrave a um processo que sempre teve como princípio a continuidade, e em alguns dos sintetizadores digitais mais antigos o portamento soava como uma “escadinha” de freqüências. Felizmente, isso vem melhorando com o aumento da resolução de bits, e os sons e efeitos vêm ficando mais reais a cada ano que passa. Os primeiros sintetizadores digitais também compensavam os custos economizando botões (e conversores) no painel, e por isso programar um timbre requeria um sem-número de acessos a Pages, Parameters e Values. Isso desanimou muita gente a programar timbres, e deu origem a uma guerra de números entre os fabricantes, onde o marketing acabou sendo a quantidade de timbres, e não a qualidade. Mas isso também tem melhorado, e os sintetizadores mais modernos já oferecem painéis com pelo menos uma meia-dúzia de botões rotativos para controle direto dos parâmetros principais.

Embora outros processos digitais também venham sendo usados, como veremos em outros artigos, a síntese subtrativa ainda é a mais “amigável” para o usuário, talvez pelo seu histórico. No entanto, mesmo usando tecnologia digital, ela possui limitações, sendo que a principal diz respeito à expressividade dinâmica. Embora o gerador de envoltória associado ao filtro possa criar nuances de conteúdo harmônico, sua atuação é limitada quando comparada ao que se pode ter em processos de síntese aditiva ou síntese FM. Outra desvantagem é o consumo excessivo de memória requerido para amostras de alta qualidade, o que encarece o preço do equipamento.

 

Parte 3: Síntese Aditiva

A síntese aditiva é um dos processos mais antigos utilizados para a implementação de instrumentos eletrônicos. Ela foi usada no Telharmonium, ainda no século XIX, e também no famoso órgão Hammond. É um dos processos de síntese mais poderosa, apesar da sua implementação e operação serem muito complicadas.

tec_ins25

Para que se possa entender o processo de síntese aditiva, é preciso primeiro conhecer alguns conceitos básicos sobre a composição do som.

De acordo com o teorema do matemático francês J.B. Fourier, qualquer forma-de-onda pode ser expressada como a soma de uma série de sinais senoidais – chamada de série de Fourier – onde cada sinal possui seus coeficientes específicos de freqüência, amplitude e fase.

A representação gráfica da série de Fourier é mostrada na figura, e os sinais individuais que estão sendo somados são senóides com freqüências múltiplas inteiras de um sinal de freqüência fundamental. A essas freqüências damos o nome de harmônicos, sendo que o sinal de freqüência fundamental é considerado como o primeiro harmônico (freq ×1), o sinal com o dobro da freqüência fundamental é o segundo harmônico (freq ×2), e assim sucessivamente.

Teoricamente, a série nunca termina, possuindo infinitos harmônicos. Nos sons acústicos em geral, à medida que a ordem dos harmônicos aumenta, suas amplitudes vão diminuindo (como no exemplo), de forma que a influência de um único harmônico no resultado final da soma é sempre menor do que a influência da fundamental. Isso não quer dizer que um harmônico não tenha influência no som; pelo contrário: a presença dos harmônicos, e as respectivas amplitudes que eles possuem, é extremamente relevante para a característica timbral de determinado som, e é por isso que o timbre do som é também chamado tecnicamente de composição harmônica.

É importante salientar que, na maioria dos sons naturais, cada harmônico se comporta diferentemente no decorrer do tempo em que o som ocorre. Isso quer dizer que ao se tocar uma nota no piano, por exemplo, as amplitudes de alguns harmônicos caem mais lentamente do que as de outros, o que faz com que a composição harmônica, como um todo, seja diferente a cada instante do som (veja figura).

tec_ins20

Como já citamos no artigo anterior, uma das desvantagens da síntese subtrativa é que ela parte de uma forma-de-onda fixa, que quando processada no filtro, as amplitudes de seus harmônicos mantêm-se nas mesmas proporções, não sendo possível obter o comportamento real, ilustrado no gráfico. Mesmo usando a ressonância no filtro, não se consegue esse comportamento.

No processo de síntese aditiva, no entanto, desde que se tenha o controle separado de cada harmônico, modelando-os com osciladores senoidais individuais, pode-se criar as variações reais de composição harmônica de qualquer som. O grande problema da implementação da síntese aditiva é justamente a complexidade desse controle individual de harmônicos.

Processos primitivos de síntese aditiva

O primeiro instrumento musical a usar a síntese aditiva foi o Telharmonium, patenteado em 1897 por Tadheus Cahill, e só apresentado ao público em 1906. Ele utilizava 145 dínamos, rotores e bobinas especiais, que produziam diferentes freqüências de áudio, que podiam ser combinadas para enriquecer a composição harmônica dos timbres.Mas o exemplo mais clássico do uso de síntese aditiva é o órgão Hammond, fabricado nos EUA entre 1935 e 1974.

tec_ins26

Fig. 3 – Rotor do Telharmonium

Assim como o Telharmonium, o Hammond usa sinais produzidos por geradores dotados de rodas dentadas, chamadas de Tone Wheels (“rodas de tons”). Junto a cada roda há um captador magnético, semelhante ao usado numa guitarra, de forma que quando a roda gira, a passagem dos ressaltos junto ao captador faz surgir neste uma corrente alternada com forma-de-onda praticamente senoidal (Fig.4). A freqüência deste sinal é determinada pelos números de ressaltos existentes na roda. No total, são 91 rodas, todas no mesmo eixo e girando na mesma velocidade, mas como cada uma tem um número diferente de ressaltos, as freqüências geradas por elas são diferentes. Dessa forma, 61 rodas geram as freqüências fundamentais das 61 notas para a faixa de 5 oitavas, e as outras 30 rodas geram harmônicos e sub-harmônicos. Os sinais de cada gerador são ajustados por controles deslizantes (drawbars), que atuam atenuando ou não cada harmônico.

tec_ins27

Fig. 4 – Tone Wheel do Hammond

É importante observar que o esquema de síntese aditiva utilizado pelo Hammond é “estático”, isto é, a composição harmônica ajustada através dos drawbars permanece inalterada durante toda a execução da nota. Isso não é nenhum demérito para o Hammond, até porque seus timbres característicos são imitados até hoje, mas não lhe permite criar sonoridades mais complexas no que diz respeito a variações timbrais no decorrer do tempo. Para isso, os drawbars teriam que se mover, gradual e adequadamente, durante toda execução da nota, manipulando assim durante o tempo a intensidade de cada harmônico.

A tecnologia digital na síntese aditiva

Mais uma vez, a tecnologia digital trouxe novos horizontes para a síntese de sons. Com o advento dos DSPs, tornou-se viável a geração de sons eletrônicos por processo aditivo. Vários instrumentos comerciais já surgiram, embora nenhum tenha efetivamente “decolado”, provavelmente por causa da complexidade que é a programação de um timbre composto por vários harmônicos.

Um dos primeiros equipamentos digitais a oferecer recursos de síntese aditiva foi o Fairlight CMI, produzido na Austrália entre 1980 e 1984. Utilizando o microprocessador Motorola 68000, ele processava a síntese por software, e possibilitava controlar o comportamento de até 64 harmônicos do som, através de um monitor de vídeo com uma caneta especial, que permitia desenhar graficamente as envoltórias de cada harmônico. Era uma máquina poderosa, mas muito complexa e, sobretudo, cara: cerca de 25 mil dólares naquela época. O próprio Kim Ryrie, um dos criadores do Fairlight, certa vez afirmou que, mesmo com sons interessantes, era extremamente difícil de se fazer algum som rico e aproveitável.

tec_ins28

Fig. 5 – Fairlight CMI

Um instrumento muito popular que permite trabalhar com síntese aditiva é o famoso DX7, da Yamaha. Embora seu esquema de síntese seja baseado em modulação de freqüência (FM; veremos com detalhes em outra oportunidade), é possível gerar timbres com total controle de até 6 harmônicos, usando-se o algoritmo 32, onde os seis operadores estão alinhados, de forma que seus sinais são somados: se eles forem ajustados adequadamente para gerar freqüências harmônicas, tem-se então um processo de síntese aditiva limitado a seis harmônicos, mas bastante interessante. Com esse algoritmo, pode-se gerar sons de Hammond bastante realistas. Talvez um dos melhores exemplos atuais de síntese aditiva seja a série Kawai K5000. Ele permite processar individualmente 128 harmônicos, podendo-se configurar a envoltória de amplitude de cada harmônico (Fig.6). Isso permite a criação de texturas bastante ricas, mesmo com durações muito longas.

A estrutura de uma voz do K50 0 contém até seis sources, que podem ser wavesets de síntese aditiva ou amostras (samples) PCM. Cada waveset pode controlar 64 harmônicos (1 a 64, ou 65 a 128), e o timbre gerado pelo waveset pode ser moldado por um filtro de 128 bandas, chamado de “Formant Filter”, capaz de simular características tonais naturais, tais como o tubo de um clarinete ou o corpo de um violão. Em seguida, o sinal vindo do waveset ou do gerador de PCM passa por módulos “tradicionais” de filtro e amplificador, num processamento típico de síntese subtrativa.

tec_ins29

Fig. 6 – Kawai K5000S

Como já foi dito acima, o grande problema da síntese aditiva é a sua complexidade de edição, em comparação com o já tão difundido processo subtrativo. Isso explica a dificuldade de penetração no mercado que tem o Kawai K5000 que, apesar de sua poderosa máquina de síntese, é um instrumento complicado para o usuário comum.

 

Parte 4: Síntese FM

Quem nunca ouviu falar no sintetizador DX7, da Yamaha? Na década de 1980, ele era o sonho de todo tecladista por causa de sua sonoridade tão diferente dos demais teclados, que usavam circuitos analógicos de VCO, VCF e VCA. O segredo por trás dos timbres do DX7 era um processo de síntese inovador e poderoso: a síntese FM.

Seria injusto falar da síntese FM sem mencionar John Chowning, o homem responsável pela sua utilização musical. Nascido em New Jersey, em 1934, ele formou-se na Universidade de Stanford, na Califórnia, onde participou do desenvolvimento de um dos primeiros softwares para aplicações musicais, ainda em 1964, junto com Max Mathews, da Bell Labs. Em 1967, Chowning descobriu o princípio da síntese por modulação de freqüência (FM), cujos detalhes veremos mais adiante. Suas pesquisas despertaram o interesse da Yamaha e, em 1973, Chowning começou a colaborar com a empresa no desenvolvimento de um instrumento inovador voltado para o grande público. Os primeiros instrumentos da Yamaha com a síntese FM foram os GS1 e GS2, logo no início da década de 80, que pouco interesse despertaram na época.

DX7, a lenda

O grande sucesso da síntese FM aconteceu com o DX7. Designado como Digital Programmable Algorithm Synthesizer, foi um teclado que impressionou em vários aspectos. Em primeiro lugar, é um instrumento muito bem construído, feito para suportar as condições mais adversas (um verdadeiro tanque de guerra!). Possuía polifonia de 16 vozes numa época em que a maioria só podia tocar oito notas simultâneas e foi um dos pioneiros no uso da comunicação MIDI. Tinha uma expressividade melhor do que qualquer contemporâneo seu, graças ao teclado sensitivo (velocity e aftertouch), ao portamento programável e, sobretudo, ao processo de síntese FM. Com um preço abaixo de US$ 2.000, não poderia dar outra coisa: sucesso absoluto, com mais de 160.000 unidades vendidas.

tec_ins13b

Uma das razões para a viabilidade do projeto DX7 foi a integração dos componentes necessários para o processo de síntese do som, feito por dois chips proprietários da Yamaha (YM2128 e YM2129). Foi outro impacto na época, pois enquanto nos sintetizadores analógicos havia uma enorme quantidade de placas, transistores e chips, dentro do DX7 há poucos componentes discretos e muita integração.

Com o direito de uso da patente da síntese FM de Chowning, a Yamaha lançou vários outros instrumentos com a mesma tecnologia, uns mais complexos, outros mais simples. Atualmente, a Yamaha ainda comercializa chips de síntese FM (YMF715 e YM2413), usados por outras empresas nos sintetizadores embutidos em placas de áudio não profissionais.

Entendendo a síntese FM

Embora seja capaz de gerar timbres de extrema complexidade harmônica, o processo de síntese de sons por modulação de freqüência (FM) baseia-se num princípio relativamente simples.

Imagine um oscilador OSC1 gerando um sinal com freqüência de áudio, digamos 440 Hz, e um oscilador OSC2 gerando um sinal com freqüência de 100 Hz. Se o sinal de OSC2 for injetado em OSC1 de tal forma que faça a freqüência de OSC1 variar ciclicamente, temos então uma modulação de freqüência. O oscilador que altera o sinal do outro é chamado de modulator (modulador), e o oscilador cuja freqüência é modulada é chamado de carrier (portadora).

A modulação de freqüência é muito usada nos sintetizadores convencionais para se produzir o efeito de vibrato, onde o modulador é o LFO (low frequency oscillator), que gera uma freqüência muito baixa (da ordem de 2 a 8 Hz) para modular o sinal do som (portadora) que está sendo ouvido.

tec_ins31

Fig.2 – síntese FM

À medida que a freqüência moduladora vai sendo aumentada e chega próxima à freqüência portadora, pode-se observar que o sinal da portadora deixa de ter o aspecto de uma onda modulada, e começa aparecer uma forma-de-onda diferente da senoidal (veja figura).

Nas formas-de-onda ilustradas ao lado a intensidade de modulação foi fraca e por isso os sinais têm características suaves. Entretanto, com intensidades mais elevadas, podem ser produzidas formas-de-onda bem mais complexas, ou seja, timbres bem mais brilhantes do que os sinais senoidais. Chowning também descobriu que se o sinal da moduladora for uma onda complexa, e não uma onda senoidal, então o resultado será ainda mais surpreendentemente complexo.

A partir desse princípio, a Yamaha criou uma estrutura sofisticada de osciladores atuando interativamente como moduladores e portadores e conseguiu então sintetizar timbres de características inusitadas, impossíveis de serem gerados pelos processos disponíveis na época (síntese subtrativa analógica).

Operadores DX

A arquitetura adotada pela Yamaha baseia-se num conjunto de operadores DX, que podem ser arranjados de várias formas diferentes, produzindo resultados sonoros diferentes. A estrutura interna de um operador DX é mostrada na figura.

Um oscilador (OSC) produz um sinal senoidal cuja freqüência é ajustada pela entrada freq; esse sinal é injetado a um amplificador (AMP), que efetua as alterações dinâmicas de amplitude, de acordo com o sinal vindo do gerador de envoltória EG. Os dois blocos AMP e EG atuam de maneira bastante similar ao gerador de envoltória (ADSR ou VCA) existente no processo de síntese subtrativa.

tec_ins32

Fig.3 – operador DX

Quando o sinal de saída de um operador DX é injetado à entrada mod de outro e os osciladores de ambos estão gerando freqüências iguais ou muito próximas, a saída do segundo operador terá um sinal resultante de forma-de-onda complexa. Se a envoltória do primeiro operador DX determina que a intensidade do sinal deste varie no decorrer do tempo, então ao se injetar esse sinal na entrada de modulação do segundo operador DX, a saída resultante será um sinal com forma-de-onda complexa e variando no decorrer do tempo. É muito difícil representar graficamente o que ocorre na realidade, mas os timbres que se pode obter com essas variações de sinal são fantasticamente ricos e expressivos.

Se a relação entre as freqüências moduladora e portadora for um número inteiro, o som resultante terá uma composição harmônica normal, com harmônicos inteiros. Caso contrário, terá sons metálicos, com alguns componentes não múltiplos inteiros da fundamental. Isso permite efeitos interessantíssimos, similares a ring modulation.

Para tornar o processo ainda mais poderoso, a Yamaha colocou seis operadores DX, que podem ser arranjados de várias maneiras. Ao todo, são 32 arranjos possíveis, chamados de algoritmos. Nesses algoritmos pode-se ter pilhas de até quatro operadores, um modulando o outro, com os sinais resultantes das pilhas somados para produzir o som final. O operador que modula outro é chamado de modulador, enquanto que o que é modulado é chamado de portador. É ainda permitido a um dos operadores do algoritmo modular a si mesmo, reinjetando em sua entrada mod o sinal de sua própria saída, num processo de realimentação (feedback).

tec_ins33

Fig.4 – exemplo de algoritmo

Os 32 algoritmos permitem diversas situações diferentes. No algoritmo ilustrado acima, por exemplo, podemos interpretar como se cada uma das pilhas de operadoras fosse um gerador de timbre e os timbres das duas pilhas serão somados para produzir o som final. Pela quantidade de operadores existentes na pilha da direita, dá para imaginar que o som gerado por aquela pilha pode ser bem mais complexo (e rico em harmônicos) do que o som gerado pela pilha da esquerda. É bom lembrar que, no caso do DX7, que tem polifonia de 16 vozes, a estrutura de operadores do algoritmo é repetida 16 vezes, uma para cada nota tocada pelo músico.

Além da complexidade sonora, a grande vantagem da síntese FM produzida com a arquitetura de operadores DX da Yamaha é a possibilidade de se obter grandes variações de timbre no decorrer da execução de uma nota, graças à ação que cada operador exerce sobre o portador abaixo dele, a partir das configurações de envoltória no modulador. As possibilidades são praticamente infinitas, e o resultado é realmente impressionante, considerando que as intensidades das envoltórias podem ser controladas diferentemente de acordo com a força (key velocity) com que se toca uma tecla. Não conheço outro instrumento com tamanho potencial de expressividade.

Você agora deve estar se perguntando: Mas se o DX7 é tão incrível assim, então por que não a síntese FM não é mais usada nos sintetizadores atuais? Bem, apesar de toda a expressividade e das sonoridades inusitadas, a síntese FM não é a mais adequada para a geração de sons acústicos, como pianos, violinos e outros timbres que são obtidos mais facilmente por processo de reprodução de amostras (sample player). Além disso, a programação de um timbre na síntese FM não é um processo tão previsível como na síntese subtrativa (até porque envolve muito mais parâmetros), o que desencorajou a maioria dos usuários a criar seus próprios timbres. Somando a isso as forças do mercado (é preciso lançar novas tecnologias!), e também o cansaço que se teve com a massificação de determinados timbres característicos do DX7 (sampleados por todos os outros sintetizadores até hoje), o DX7 passou a ser considerado um instrumento obsoleto. Mas a pior – e injusta – imagem que acabou tendo a síntese FM foi a sonoridade horrível dos FM Synth existentes nas placas de som baratas, que fizeram muita gente acreditar que síntese FM é aquela porcaria.

Felizmente, como o obsoleto acaba virando cult (vide Minimoogs, Hammonds e outras maravilhas antigas), já começa a haver novamente interesse pelos velhos DX7 (e existem muitos ainda em excelente estado). A própria Yamaha oferece uma placa de expansão com a síntese do DX7, que pode ser instalada em quase todos os modelos de sua linha atual de sintetizadores (S30, CS6X, Motif).

Síntese FM virtual

tec_ins30Para aqueles que não têm acesso a um sintetizador DX, existem algumas opções virtuais de softwares que simulam o processo de síntese FM. O mais conhecido é o Sound Forge, que além de ser um poderoso editor e gravador de áudio, oferece um recurso de síntese FM simplificada, com quatro operadores. Embora não seja um verdadeiro instrumento, ele pode ser usado para experiências e simulações.

Há outras opções, inclusive softwares gratuitos e shareware disponíveis na Internet, dentre eles o FM7, da Native Instruments, que é uma recriação em software do DX7.

Variações sobre a mesma idéia

Com a revolução sonora criada pelo DX7 na década de 1980, outros fabricantes trataram de pesquisar meios de conseguir novos timbres. A Casio, por exemplo, lançou na época a série CZ, que utilizava síntese por modulação de fase (phase modulation – PM). O processo consistia em alterar a forma-de-onda original de um sinal variando a sua fase, o que, no final das contas, é muito semelhante à modulação de freqüência da síntese FM. Os recursos dos sintetizadores CZ, no entanto, não chegavam a ser tão impressionantes quanto os do DX7, e apesar de ter tido até um relativo sucesso de vendas, a Casio logo desistiu do mercado de sintetizadores.

Apostando mais fichas no que deu certo, no final da década de 1980 a Yamaha lançou com a série SY um aperfeiçoamento da síntese FM, chamada de Advanced FM (AFM). Baseada no chip OPS3 (YM7107), a novidade era que os osciladores dos operadores DX podiam usar tanto um sinal senoidal quanto uma amostra digital (sample). Isso possibilitava a criação de timbres ainda mais impressionantes. Além disso, havia agora três loops de realimentação para cada operador, e a quantidade de algoritmos foi aumentada para um total de 45. O teclado SY77 foi apresentado como uma super máquina de síntese com várias outras melhorias nos geradores de envoltória, dois processadores de efeitos, 16 partes timbrais, seqüenciador interno, etc e tal.

Quem quiser, pode apanhar (de graça!) alguns timbres que criei há alguns anos para o DX7 e o SY55, e que estão disponíveis aqui em nossa página.

 

Parte 5: Samplers

Os samplers trouxeram uma nova perspectiva no uso dos instrumentos musicais eletrônicos, possibilitando copiar e, principalmente, alterar sons que já existiam nos instrumentos convencionais.

Como vimos anteriormente, as primeiras tentativas de se dispor de sons acústicos num instrumento eletrônico surgiram há mais de 40 anos, com o Chamberlin, e posteriormente o Mellotron. Esses equipamentos usavam a tecnologia de registro sonoro (gravação) disponível na época, que era a fita ma nética, e obviamente sofriam dos inevitáveis problemas de desgaste mecânico, sujeiras nas cabeças magnéticas, fitas amassadas, etc. É bom lembrar também que o Mellotron não permitia ao músico criar seus próprios timbres, pois eles vinham gravados da fábrica. Mas eles tinham a vantagem de ser instrumentos polifônicos e, apesar de todos os inconvenientes, as bandas de rock progressivo atravessaram pelo menos uma década inteira com seus Mellotrons, até surgirem as novas tecnologias.

tec_ins34

Minimoog e Mellotron – Retrato de uma época: a dupla mais desejada pelos tecladistas de rock progressivo da década de 1970 era um Mellotron, para bases de strings, e um Minimoog para os solos

Embora atualmente os samplers sejam menos usados como samplers e mais como “players”, pois a maioria dos músicos prefere carregar sons prontos, ao invés de produzir seus próprios timbres, o principal objetivo do sampler seria possibilitar ao músico gerar suas próprias fontes sonoras, e a partir delas criar sonoridades inéditas. Isso até que foi bem explorado na “infância” dos samplers digitais, quando os próprios artistas reservavam parte de seu tempo e criatividade na árdua tarefa de digitalizar sons acústicos e ambientais (ex: Jean-Michel Jarre, em “Zoolook”). Até que começaram a surgir empresas especializadas, com estúdios acusticamente adequados e equipados com os melhores microfones, que passaram a produzir álbuns de samples em CD-ROMs compatíveis com os formatos de quase todos os samplers do mercado. O lado positivo foi o ganho de qualidade que se teve nos samples; o negativo foi o afastamento cada vez maior do artista do processo de geração sonora no sampler, desperdiçando assim os enormes recursos que dispõe num instrumento ainda tão caro.

O processo de sampling

O termo “sampler” significa amostrador, e nesse caso refere-se a um equipamento que registra amostras (“samples”) digitais de um som, para serem usadas posteriormente. Em linhas gerais, o sampler digital é um equipamento capaz de gravar (digitalmente) um som qualquer, editá-lo e armazená-lo na memória, para ser executado posteriormente, sob o controle de um teclado ou um seqüenciador MIDI.

Para gravar um som no sampler, basta conectar à sua entrada de áudio um microfone (ou uma outra fonte de sinal, como um toca-discos de CD, por exemplo) e iniciar o processo de digitalização, que é efetuado pelo conversor analógico/digital do sampler. Nesse momento, o som já digitalizado é armazenado então na memória interna do sampler, onde é devidamente processado e configurado para ser uma forma-de-onda (“waveform”) utilizável na edição de timbres, daí então um processo igual ao dos sintetizadores digitais convencionais que utilizam síntese subtrativa, que dará o resultado final, ou seja, um timbre que pode ser controlado por um teclado ou por um seqüenciador MIDI.

tec_ins35

A principal diferença do sampler para um sintetizador comum é que as formas-de-onda não estão fixas na memória, e podem ser carregadas pelo usuário. Isso faz do sampler um equipamento dependente da qualidade das amostras que nele serão colocadas (sampleadas pelo próprio usuário ou carregadas a partir de CD-ROMs criados por empresas especializadas). O sampler é, portanto, um instrumento extremamente flexível e “atualizável”, pois a parte principal – os timbres – podem ser trocados desde a fonte, diferentemente de um sintetizador que possui formas-de-onda fixas, para sempre.

Estando a amostra na memória, é necessário ajustá-la adequadamente para que possa ser usada. Um dos aspectos mais importantes a se entender no processo de sampling é quanto à faixa utilizável de uma amostra. Todo som natural (voz humana, violino, etc) possui uma característica chamada de “formante”, que delineia as amplitudes dos harmônicos presentes em seu espectro de freqüências, conforme um padrão próprio. Essa formante está diretamente associada ao dispositivo físico onde o som é gerado (corpo do violino, estrutura da laringe, etc). Isso faz com que mesmo notas de alturas diferentes tenham um contorno bastante similar nas amplitudes do espectro.

Na figura seguir podemos observar o que foi descrito acima. O diagrama A mostra o espectro de freqüências produzido pela nota Lá 3 de um violino. A formante (representada pela linha vermelha), nesse caso, mostra algumas ênfases, principalmente nas proximidades das freqüências de 4.300, 8.700 e 12.000 Hz. O diagrama B mostra o espectro de freqüências produzido pela nota Lá 4 do mesmo violino. Observe que sua formante mostra praticamente as mesmas ênfases da nota Lá 3. Este exemplo deixa claro que, nos sons naturais, as características de amplitude do espectro são fixas, de acordo com uma formante própria, não se alterando com a altura do som.

tec_ins36

Se tentarmos usar a nota Lá 3 para gerar a nota Lá 4, efetuando uma transposição por processamento digital (dobrando a freqüência por meio de um recurso simples de “pitch shifting”), teremos uma nota Lá 4 com um espectro de freqüências obedecendo a uma formante completamente diferente da original daquele violino (diagrama C). Na prática, isso fará com que o som dessa nota Lá 4 soe estranho (ainda que com características de violino). Isso é bastante perceptível quando se aumenta a velocidade de um gravador de fita (será que alguém ainda tem um?) ou aumentando a sampling rate na reprodução do som digital. Se a gravação original contém voz, por exemplo, o resultado será bem engraçado, com a característica de “voz de pato”.

Além da deterioração da formante, podem ocorrer também outros problemas ao se transpor uma amostra. O efeito de vibrato, por exemplo, que se caracteriza por uma leve modulação na freqüência do som, da ordem de 5 Hz, pode se tornar irritante ao se transpor a amostra para o dobro da freqüência. Outros efeitos, como os ataques de metais, o ruído de sopro de uma flauta, e mesmo a reverberação acústica presente na amostra, podem ser totalmente descaracterizados após uma transposição acentuada.

Por isso, para se samplear um som natural, é necessário fazer várias amostragens, evitando-se ao máximo o aproveitamento da amostra de uma nota para as demais. Esse processo é chamado de “multisampling”, e associa uma amostra a um pequeno grupo de notas (veja figura a seguir). Idealmente, cada nota deveria ter sua própria amostra, mas como a quantidade de amostras está diretamente associada à capacidade de armazenamento de memória, que custa caro, os fabricantes têm que encontrar uma relação viável entre o custo (número de amostras) e a qualidade, para poder colocar seu equipamento no mercado.

tec_ins37

Existem algoritmos sofisticados de pitch-shifting que permitem fazer grandes alterações da freqüência da amostra sem que haja uma deterioração perceptível da formante. Um exemplo disso é a tecnologia Variphrase da Roland. A aplicação mais evidente do processo de multisampling são os kits de bateria e percussão, onde cada tecla (nota) está associada a um único timbre, composto por sua própria amostra.

Manipulando as amostras

Para conseguir uma redução ainda maior da ocupação de memória pelas amostras, os samplers utilizam o recurso de looping. A figura a seguir mostra a onda sonora de uma nota de piano acústico. A porção inicial (attack) é uma das partes mais importantes para a caracterização do som do piano. O restante da amostra é quase que uma repetição sucessiva de uma determinada forma de onda, com as variações dinâmicas de amplitude (decay, sustain, release).

A forma mais econômica de se armazenar uma amostra, portanto, é ter a parte inicial (attack) e alguns ciclos do restante, que é o trecho de loop – delimitado pelos pontos de “loop start” e “loop end”, e que será repetido enquanto o som estiver sendo executado.

tec_ins39

Para que o corte da amostra seja feito de forma a não ser percebido, os pontos de início e fim de loop devem ser posicionados onde a onda corta o eixo zero (“zero crossing”), para que, ao repetir o loop, a junção entre esses dois pontos seja suave (sem cliques).

tec_ins40

Para recriar a dinâmica dos estágios de decay, sustain e release, o sampler possui um gerador de envoltória igual ao de um sintetizador comum, onde são ajustados os devidos tempos e níveis. Para recriar a redução natural da composição harmônica do timbre no final da sua execução (estágio de release), geralmente é usado um filtro passa-baixa controlado por outro gerador de envoltória, num processo de síntese subtrativa idêntico ao já descrito no artigo publicado anteriormente.

Uma das grandes dificuldades para a simulação de timbres acústicos é conseguir as várias nuances de timbre que existem de acordo com a dinâmica que se toca. Num piano, por exemplo, dependendo da força que se toca, a forma-de-onda pode variar bastante, e é difícil simular essas variações somente com o uso de filtros. Para obter um maior realismo, geralmente são usadas duas ou mais amostras, cada uma registrando uma situação diferente de toque. Dessa forma, quando o músico toca com pouca força (gerando valores baixos de key velocity), o sampler utiliza a amostra de toque fraco, e quando ele toca com muita força (gerando valores altos de key velocity), o sampler utiliza a amostra de toque forte.

tec_ins38

Para obter uma variação gradual entre a amostra de toque fraco e a amostra de toque forte, para níveis intermediários de toque, os samplers adotam um recurso chamado de “velocity-fade”, em que as amostras de toque fraco e toque forte são mixadas, dosando mais uma ou outra amostra, conforme a força do toque.

Novas tendências

Com a explosão da dance-music, remix e gêneros afins, os fabricantes passaram a oferecer recursos orientados para a manipulação e edição samples com loops de batidas (drums & bass, etc). Alguns samplers podem detectar e marcar automaticamente os tempos da batida do loop, dividi-lo em seções que podem ser rearranjadas. Outros, como o novo Yamaha Motif, possuem seqüenciadores MIDI integrados com o sampler, de forma que os trechos dos loops de áudio podem ser totalmente ajustados em andamento e afinação junto com as trilhas de MIDI.

Uma das grandes inovações da última década foram os “software synthesizers”, isto é, instrumentos sintetizadores implementados dentro do computador, com o processador deste atuando como DSP, e usando a placa de áudio apenas como interface de saída. O primeiro sampler de computador, o Digidesign SampleCell, era ainda um sistema híbrido constituído de uma placa com DSP e um software controlador. Posteriormente, com o aumento da capacidade de processamento dos computadores, todas as funções de sampler passaram a ser executadas pelo computador, sem a necessidade de uma placa específica. Um dos mais populares softwares de sampler é o Gigasampler que, mesmo com algumas incompatibilidades de drivers, é um dos instrumentos mais usados nos estúdios computadorizados.

Para orçamentos mais apertados, há ainda a opção dos SoundFonts, que é um padrão para o armazenamento de samples, suportado pelas placas SoundBlaster Live! e outras similares (ex: Diamond MX). Com uma placa dessas, é possível usar samples de boa qualidade sem pagar muito caro. Existem inúmeros sites na Internet que disponibilizam samples em SoundFonts, de todo o tipo de material. A E-mu, por exemplo, comercializa um kit de CD-ROMs com todos os timbres da linha Proteus para serem usados na SoundBlaster. E são realmente bons, acredite.

Características práticas

Há diversos aspectos a serem considerados na avaliação de um sampler. Vejamos os principais.

Formato das amostras: Com a popularização dos softwares samplers e dos softwares gravadores de áudio que trabalham com loops, o suporte a vários formatos passou a ser um item importante para os samplers. Hoje, os bons samplers podem ler arquivos em formato WAV (padrão de áudio do Windows), AIFF (padrão do Mac), Roland S-700 (um dos samplers mais populares das décadas de 1980/90), e Akai série S (os mais baratos do mercado).

Recursos de edição: Além das operações básicas de edição de amostras, como corte e colagem de trechos com recursos de truncagem e acerto do corte (zero-crossing), o sampler pode permitir também processamentos mais sofisticados, como ajuste de tamanho (time-compression), ajuste de afinação (pitch transpose), compressão dinâmica, conversão de resolução de bits e/ou taxa de amostragem, e a aplicação de efeitos de áudio como reverbs, delays, exciter e outros.

Capacidade da memória: Com o barateamento das memórias digitais a cada ano, ficou muito mais fácil armazenar e manipular samples. Com a fusão cada vez maior entre a música e os computadores, sobretudo pela aplicação de componentes comuns de informática nos instrumentos musicais, os samplers hoje usam memórias e discos de PCs comuns, o que os torna não só mais baratos, mas também mais flexíveis para atualização de configuração. O uso de interface SCSI, discos rígidos IDE, unidades de CD-ROM, memórias SIMM, e outros dispositivos vindos dos computadores são exemplos claros disso.

Para concluir este artigo, apresentamos abaixo uma comparação das características do primeiro Emulator I, de 1982, e o Emulator 4 Platinum, o mais recente modelo da E-mu. Dá para perceber que a tecnologia evoluiu e barateou bastante em 20 anos.

  Emulator Emulator 4 Platinum
conversores A/D/A 8 bits / 27.7 kHz 20 bits / 48 kHz
memória interna 128 kB (17 seg) 128 MB
polifonia 8 vozes 128 vozes
partes timbrais 1 32
mídia de armazenamento disquete 5.25” (360 kB) disco rígido interno (20 GB)
preço (USA) US$ 9.995 (1982) US$ 4.995 (2001)

 

 

Parte 6: Modelagem Física

A modelagem física é um dos processos mais complexos e poderosos para se sintetizar sons, e utiliza métodos computacionais para simular os timbres dos instrumentos musicais acústicos. Ela só se tornou viável com o aumento da capacidade dos processadores digitais, e debutou comercialmente no início da década de 1990, com o teclado Yamaha VL1 (e o módulo correspondente, VL-1m). Desde então, outros produtos incorporaram essa tecnologia.

tec_ins42

Embora os samplers e sample-players possam oferecer aos músicos timbres “acústicos” com qualidade relativamente alta, eles não conseguem reproduzir perfeitamente todas as variações e nuances que os sons acústicos realmente possuem. Isso porque as amostras – como o próprio nome já diz – são como “fotografias” sonoras estáticas de uma determinada situação do timbre. Ainda que o sampler utilize duas ou três amostras de situações diferentes do timbre (para intensidade fraca, média e forte, por exemplo), não consegue atingir um grau de altíssima precisão – e por isso não satisfaz a muitos ouvidos mais exigentes.

Analisando-se, por exemplo, as condições acústicas e físicas na geração do som no clarinete, pode-se obter um modelo matemático (por meio de equações complexas) que represente as propriedades da propagação da onda sonora no tubo, com as devidas influências e efeitos da palheta, dos furos e da boca do instrumento. O mesmo pode ser feito para o violino, ou qualquer outro instrumento acústico (e eletrônico também). A partir dessas equações são criados algoritmos, que podem reduzir a quantidade de processamento sem que haja perda significativa na precisão do resultado sonoro. Esse processo é conhecido como modelagem física (“physical modeling”), e graças à crescente evolução dos chips de processamento digital de sinal (DSP), tornou-se possível a sua implementação em equipamentos comerciais, a um preço realmente acessível.

Modelando o som

Como vimos anteriormente, os sintetizadores analógicos foram as primeiras alternativas comerciais, com seus timbres gerados a partir de ondas senoidais, dente-de-serra, triangulares, etc., geradas pelos circuitos eletrônicos disponíveis na época. Os sons eram criados a partir de alterações muito limitadas na composição harmônica (VCF) e na amplitude (VCA). Os sintetizadores digitais trouxeram mais sonoridades, graças à possibilidade de armazenar e ler amostras contendo timbres de inúmeros instrumentos acústicos e eletrônicos. Mesmo com uma possibilidade de controle muito grande, por meio de pedais, joystick, ribbon controller, etc, esses sintetizadores têm sérias limitações para a simulação de determinados tipos de execução e controle de expressividade.

Exemplos claros disso (que os tecladistas sabem muito bem!) são os timbres de sax e guitarra, onde o sampler não consegue recriar com toda a fidelidade os inúmeros efeitos dos instrumentos “de verdade”. Essa deficiência é mais clara quando se usa o sintetizador para solos ou partes musicais em destaque.

tec_ins43Para se criar um modelo computacional de um instrumento musical, é necessário separá-lo em partes físicas, e então criar as fórmulas matemáticas para cada parte. Um violino, por exemplo, seria separado em corpo, arco, cavalete, cordas, etc. Além disso, a forma de execução, como o arrastar do arco sobre as cordas, também tem que ser representado matematicamente. Com as equações definidas, cria-se então um algoritmo que efetua todas as interações das partes. Quanto mais precisas forem as equações matemáticas que modelam as partes do instrumento e o algoritmo de interação, mais real e fiel será o resultado final da “construção” do timbre do instrumento.

Para construir o modelo de um clarinete, por exemplo, é necessário dividi-lo em partes: boquilha/palheta, corpo (com as interferências dos orifícios) e a boca do instrumento. É necessário também analisar as características próprias do instrumento, diâmetro do corpo, abertura da boca, posição e tamanhos dos orifícios, etc. Isso sem falar nas variações da pressão do ar dentro do instrumento, alterações que o músico pode produzir com o lábio e o sopro e todas os demais recursos possíveis.

No processo de modelagem do instrumento são implementadas duas etapas funcionais. A primeira etapa é a excitação, que é usada para simular o início da produção do som. No modelo do clarinete, por exemplo, a etapa da excitação seria equacionada em cima da parte da boquilha e palheta, com um comportamento não-linear, devido à natureza das alterações de sopro e embocadura. A segunda etapa é o ressonador, que modela o corpo do instrumento e é quem determina o timbre global. Para isso é necessário ter-se uma análise espectral adequada, sem a qual é impossível obter-se a estrutura da formante do instrumento.

Graças a todas essas particularidades, a síntese por modelagem física é capaz de oferecer grandes vantagens em relação a outros processos usados nos sintetizadores comerciais:

  • Os timbres soam melhor, com mais profundidade e mais realismo.
  • Ao se tocar uma mesma nota duas ou mais vezes seguidas, nem sempre o som sai exatamente o mesmo, pois o instrumento tem resposta própria, como se estivesse “vivo”.
  • As transições de uma nota para outra têm a mesma continuidade dos instrumentos acústicos. O que ocorre entre duas notas é tão importante quanto as próprias notas.
  • Capacidade extraordinária de expressividade. Ao invés de se controlar apenas parâmetros de volume ou altura (afinação) das notas, pode-se controlar também características sutis como pressão do sopro, que afetam de forma bastante complexa o resultado final do som.

Modelagem física na prática

Como já foi dito antes, a complexidade do modelo está diretamente relacionada à autenticidade do som que poderá ser produzido, assim como às nuances que poderão ser manipuladas. Essas sutilezas também têm que estar representadas no algoritmo. Por exemplo: um modelo de violão obviamente terá que conter em suas equações o comportamento básico das cordas e da caixa de ressonância, mas deverá considerar também o ruído do trastejar, os harmônicos, abafamento com a mão, etc. Ou seja, uma parte do algoritmo do modelo deve interpretar as ações do músico sobre o instrumento, se ele está soprando com pressão normal ou excessiva (o que pode gerar harmônicos), se está puxando a corda com o dedo da mão esquerda, e assim por diante. E no final, todos esses parâmetros terão que estar disponíveis ao controle do músico, seja lá como for o dispositivo de controle (um teclado, um controlador por sopro, ou qualquer outra implementação).

O primeiro sintetizador comercial a utilizar modelagem física foi o Yamaha VL1, lançado em 1994, que é um teclado com 49 teclas e apenas duas vozes de polifonia. O VL1 foi projetado para ser usado como solista (o VL significa “Virtual Lead”), e possui vários recursos de expressividade. Seu teclado, obviamente, é sensitivo (key velocity e aftertouch), e existem dois botões rotativos programáveis além do pitchbend comum. Dispõe ainda de quatro entradas para pedais de controle (cujas funções podem ser programadas), e mais uma entrada para um controle de sopro (breath control), igual ao do velho DX7.

tec_ins44A estrutura do algoritmo do elemento gerador de som do VL1 é mostrada no diagrama. O bloco Instrument é responsável pela definição fundamental do timbre e, devido à sua extrema complexidade, não é permitido ao usuário programá-lo ou reconfigurá-lo. Por isso já vêm diversos tipos de instrumentos pré-programados (madeiras, metais, cordas, etc). O instrumento consiste de duas partes: o excitador, que dependendo do tipo de instrumento corresponde ao sistema palheta/boquilha, lábio/boquilha, arco/corda, etc, e o ressonador, que corresponde ao tubo/coluna de ar, corda/corpo, etc. Uma das vantagens do VL1 é que se pode escolher separadamente o tipo de excitador e o tipo de ressonador, permitindo combinações inusitadas, como palheta/boquilha com cordas de violino, por exemplo.

O bloco Controllers manipula os parâmetros responsáveis pela execução do som, ou seja, pelas atitudes do músico sobre as partes físicas do instrumento acústico (ex: o movimento do arco sobre a corda do violino). Esses parâmetros podem ser controlados através dos dispositivos disponíveis, como o breath controller, os pedais, os botões rotativos, etc. O músico pode endereçar os parâmetros para os dispositivos que lhe sejam mais convenientes e confortáveis.

tec_ins45O bloco Modifiers contém cinco seções, que embora pareçam simples efeitos, estão intimamente relacionadas com o modelo de geração do som e têm grande influência no mesmo. O Harmonic Enhancer permite manipular a estrutura harmônica do som, possibilitando variações radicais de sonoridade dentro de uma mesma família de timbres. O Dynamic Filter é bastante similar a um filtro comum de sintetizador, podendo ser configurado para operar como passa-baixa, passa-alta ou passa-banda, e possui compensação de região, do tipo “key-tracking”. O Frequency Equalizer, como o nome sugere, é um equalizador paramétrico de cinco bandas, totalmente ajustável. O Impulse Expander opera em conjunto com o bloco seguinte, e simula o efeito da cavidade de ressonância, sendo mais adequado para simulação de ressonâncias metálicas, como nos instrumentos de sopro. E finalmente o Resonator, que é quem simula o efeito da caixa de ressonância dos instrumentos feitos de madeira.

Além dos elementos apresentados acima, o VL1 ainda oferece efeitos de reverb, flanger, delay, etc, cujos parâmetros podem ser ajustados e programados para cada timbre.

Sendo um instrumento com uma estrutura de síntese totalmente diferente de tudo que se viu durante as várias décadas desde os primeiros sintetizadores analógicos, obviamente a programação de timbres no VL1 não é uma tarefa das mais fáceis. O resultado sonoro, no entanto, é bastante recompensador, e mais convincente do que os sample-players convencionais, no que se refere a instrumentos solistas.

Como já foi dito, a expressividade é o grande trunfo da modelagem física, mas a implementação do controle dos parâmetros é uma coisa complicada. Depois do VL1, que custava cerca de US$ 5000, a Yamaha passou a adotar a modelagem física para instrumentos orientados a instrumentistas que usem controladores de sopro, como o Yamaha WX5. Dentro dessa direção, atualmente a Yamaha dispõe do VL70m, um módulo para ser controlado diretamente pelo WX5, e ainda a placa de expansão VL, que pode ser acoplada à maioria de seus teclados (S30, S80, Motif), e que já vem incorporada no módulo sintetizador MU100R.

tec_ins41Um outro sintetizador que causou impacto foi o Korg Prophecy, lançado no final de 1995, que utiliza tanto síntese FM quanto modelagem física. Com um preço de quase um terço do VL1, o Prophecy não tem todos os recursos deste último, até porque a intenção era de oferecer um instrumento solista mais abrangente, com grande expressividade, mas não limitado apenas à síntese por modelagem física.

Além dos sintetizadores citados e alguns outros, a tecnologia de modelagem física vem sendo aplicada também para simular microfones, amplificadores, guitarras e outros tipos de sonoridades nem tão evidentes.

A Roland desenvolveu sua própria tecnologia “Composite Object Sound Modeling” (COSM), e aplicou-a em alguns produtos não menos impressionantes que o VL1. O módulo sintetizador para guitarra VG-88 ultrapassa os limites do imaginável, e permite ao músico, usando qualquer tipo comum de guitarra, explorar sono idades que imitam com alto grau de perfeição setups de guitarras e amplificadores. É possível, por exemplo, construir virtualmente uma guitarra com determinado tipo de captador conectada a determinado tipo de amplificador. O resultado é de fato impressionante. A mesma tecnologia COSM é utilizada no módulo de bateria TD-10 V-drum, que consegue fazer a mesma coisa com tambores e pratos, e alguns outros equipamentos, como o amplificador Cube-30.

As pedaleiras para guitarra também começam a oferecer modelagem de amplificadores e instrumentos, e já existem softwares que podem processar a gravação feita num microfone SM-58 de forma a fazer soar como se tivesse sido feita num microfone valvulado de três mil dólares (talvez até o contrário também já esteja sendo feito!).

O que podemos constatar é que a tecnologia de modelagem física vem ganhando espaço nos instrumentos e equipamentos musicais, mostrando assim uma tendência cada vez mais forte para o uso da virtualização de timbres. É uma grande promessa para o século XXI.

 

Parte 7: Síntese Granular

O físico britânico Dennis Gabor provavelmente foi o primeiro a propor o conceito de um “quantum sonoro”, segundo o qual todos os fenômenos sonoros seriam baseados na combinação de uma unidade indivisível de informação, sob o ponto-de-vista psicoacústico. Estudos posteriores mostraram que, se vários segmentos sonoros de pequena duração forem combinados seqüencialmente, a combinação deles será percebida como uma textura musical contínua, mas se a duração dos segmentos exceder a um determinado limiar, da ordem de 100 ms, então eles passarão a ser ouvidos como eventos individualizados.

A síntese granular baseia-se na combinação de uma enorme quantidade de pequenos eventos sonoros – chamados de grãos – com duração inferior a 50 milissegundos. Esses eventos podem ser criados a partir de uma forma-de-onda eletrônica (senóide, dente-de-serra etc), de um sinal gerado por síntese FM ou de uma amostra digital (sample).

O que mais se destaca na técnica da síntese granular é a relação entre a simplicidade do grão, que ouvido sozinho é apenas um clic, mas quando inúmeros outros pequenos segmentos são combinados seqüencialmente, pode-se obter texturas complexas e interessantes. Manipulando-se os parâmetros básicos dos pequenos grãos, pode-se obter variações enormes na textura final. Entretanto, quanto maior for a densidade dos grãos, maior a dificuldade de se manipular o processo, por causa da grande quantidade de processamento requerida. Isso inviabilizou o uso da síntese granular durante muitos anos, e as experiências limitavam-se a edições de trechos de áudio em fita magnética. Só mesmo no meio da década de 1980 é que se conseguiu uma implementação em tempo real.

Controlando o Processo

A síntese granular não introduz qualquer novo parâmetro ao som, uma vez que controla os mesmos parâmetros de amplitude, altura e composição harmônica. O que este processo tem de realmente interessante é o alto grau de controle a partir de manipulações de coisas simples. Ou seja, não é o que está sendo manipulado no sinal, mas sim como o processo é implementado. Existem diversas implementações de sintetizadores granulares, todas sob a forma de software.

A estrutura e recursos desses softwares podem variar um pouco, mas em geral é possível ajustar os seguintes parâmetros do segmento sonoro usado como grão:

  • amplitude (intensidade)
  • freqüência (afinação)
  • densidade (quantidade de grãos por segundo)
  • Alguns sintetizadores granulares permitem também ajustar outros parâmetros do segmento:
  • tamanho (duração do grão)
  • tempo de ataque e decaimento (envelope)
  • espectro harmônico (timbre)

A forma-de-onda de um grão depende, obviamente, de como os parâmetros acima são ajustados. A dinâmica da amplitude do grão é determinada por uma curva de envelope, sendo que a mais usada é a forma gaussiana, que possibilita uma transição suave entre um grão e outro, dentro da textura. Outras formas de envelope também podem ser usadas, mas quanto mais abruptos forem o ataque e o decaimento, mais ruidoso será o resultado final da textura.

Para quem quiser experimentar a síntese granular, existe um software chamado Granulab, distribuído como shareware, que oferece uma quantidade razoável de recursos para se obter texturas diferentes (você pode fazer um download deste software na página http://hem.passagen.se/rasmuse/Granny.htm).

Utilizando-se um grão bastante simples, gerado a partir de uma onda senoidal, e com uma curva de envelope de amplitude com forma gaussiana, podemos criar texturas diferentes, manipulando parâmetros básicos no próprio grão. Como já foi dito anteriormente, não convém aumentarmos demais o tamanho do grão, pois isso eliminaria o efeito de grão, e faria o segmento ser percebido como um som, e o resultado final não seria mais uma textura, mas uma sucessão de pequenos pedaços de áudio. Obviamente, a relação entre a freqüência do grão e a densidade de repetições dele (distância entre um grão e outro) têm uma influência muito grande no resultado final da textura.

À medida que se aumenta a densidade de grãos por segundo, a textura vai ficando mais consistente, com menos descontinuidade de som. Com uma grande densidade de grãos bem pequenos, tem-se uma forma-de-onda final já bastante alterada em relação ao que era o grão individual. Usando-se grãos senoidais, pode-se ter ondas complexas impossíveis de se obter por outros métodos. Se os grãos forem segmentos de uma forma-de-onda já complexa, como uma amostra digital de um som acústico, ou mesmo de um trecho de voz humana, então é possível conseguir timbres muito ricos e inusitados.

É claro que a síntese granular tem também suas limitações e desvantagens. Embora os timbres conseguidos com a combinação de grãos sejam interessantes, em geral eles têm características metálicas e “cortantes”, não sendo adequados a qualquer tipo de aplicação.

 

Parte 8: Dispositivos de Controle

Depois de vários artigos abordando os processos de síntese utilizados nos instrumentos musicais eletrônicos, este mês veremos os dispositivos que existem para se controlar os sons nos sintetizadores.

Os instrumentos eletrônicos trouxeram novas perspectivas para a música, não só pelas novas sonoridades, mas também pelas novas opções de expressividade. Um instrumento acústico está limitado àquilo que ele é fisicamente: um violino é sempre um violino, e o som que ele pode produzir – assim como a técnica que se usa nele para produzir o som – está limitado às suas características específicas. Ou seja, jamais poderemos incorporar a um violino os recursos de expressividade de um trompete, por exemplo.

Já no caso de um sintetizador, ainda que hoje na maioria das vezes ele seja usado para reproduzir timbres acústicos, a idéia original sempre foi extrapolar os limites do “convencional” (leia-se: instrumentos acústicos), e em muitos casos isso tem sido feito. Para que se possa atingir um alto grau de controlabilidade e expressividade, além dos recursos do próprio processo de se sintetizar o som (como apresentamos nos artigos anteriores), vários dispositivos físicos foram incorporados aos instrumentos, como veremos a seguir.

O Teclado

Embora existam várias outras alternativas, o teclado tem sido o meio de controle preferido para os instrumentos eletrônicos, provavelmente por permitir um controle bastante amplo em termos de alcance e também uma ótima visualização da execução.

O teclado de um sintetizador moderno é usado para definir a nota a ser executada, sua intensidade, sua duração e, em alguns equipamentos, também pode efetuar algumas outras funções.

Da mesma forma que num piano acústico, a posição de cada tecla do sintetizador está associada a uma determinada nota musical. No entanto, o músico pode escolher a área de atuação do teclado, transpondo-o em oitavas para cima ou para baixo. Isso permite adequar o teclado à região (altura) desejada pelo músico, possibilitando que um teclado com apenas 61 teclas possa alcançar até mais do que as 88 teclas no piano acústico. Além disso, é possível também transpor o teclado em passos de semitons, facilitando a execução de tonalidades difíceis de serem tocadas no teclado (os puristas certamente não gostam disso!).

Também igualmente ao que acontece num piano acústico, é pelo teclado que o músico expressa a “força” de execução de uma nota. Para isso, cada tecla possui dois contatos (veja figura): quando a tecla está em repouso, mantém fechado o contato 1; quando ela é pressionada, abre o contato 1 e fecha o contato 2. O tempo decorrido desde que a tecla abandona o contato 1 e toca o contato 2 (ou seja, a velocidade com que a tecla é abaixada) é computado pelo sintetizador e então usado como informação para a intensidade da execução da nota (tecnicamente chamado de key velocity). Essa informação pode ser usada para dar o volume do som e, dependendo do sintetizador, controlar também algum outro parâmetro (freqüência de corte do filtro, etc.).

tec_ins46

Em alguns sintetizadores, o teclado pode também ser usado para alterar alguma característica do som, de acordo com a pressão que o músico faz sobre a tecla, enquanto a nota está sendo executada. Esse recurso é chamado de aftertouch e conseguido por meio de um sensor de pressão localizado embaixo do teclado inteiro (channel aftertouch), ou de cada uma das teclas (polyphonic aftertouch). Depois de abaixada a tecla (veja figura), o músico pode fazer mais pressão sobre ela e a intensidade da pressão é então usada para atuar sobre algum parâmetro do som (geralmente vibrato ou volume), no processo de síntese.

tec_ins47

Alguns outros recursos foram experimentados no teclado, mas embora fossem interessantes não conseguiram ser adotados de fato. Um deles era a possibilidade do músico arrastar a tecla para frente ou para trás, de forma a poder controlar o efeito do bend individualmente, em cada nota. Mas isso fazia a execução mais difícil e a construção do teclado bem mais cara. É claro que não podemos considerar definitivo o teclado como ele é atualmente, pois sempre haverá uma nova idéia para se incluir e, desde que seja prática e viável, com certeza será adotada.

Existem ainda outros dispositivos no sintetizador, como botões e pedais, que usados em conjunto com o teclado podem ampliar bastante sua capacidade expressiva.

Controle Sem Teclado

Ainda que o teclado seja o meio de controle mais usado, existem outras alternativas, cada qual com suas vantagens e desvantagens. O uso de instrumentos acoplados a sintetizadores, como a guitarra e o violino, por exemplo, permite não só oferecer as novas sonoridades eletrônicas àqueles que não dominam a técnica do teclado, mas também usar algumas das características de execução e intonação peculiares àqueles instrumentos, que são praticamente impossíveis de ser simuladas usando um teclado.

Entretanto, diferentemente do acionamento das notas no teclado, um sintetizador controlado pela guitarra (via MIDI) requer um conversor específico que precisa detectar a nota executada pelo músico (na corda) para então poder usar essa informação e sintetizar a nota e demais alterações. Nos conversores MIDI convencionais, muitas nuances da execução do guitarrista (harmônicos, etc) não são detectadas perfeitamente, o que às vezes pode ser frustrante para o músico (ainda que outras possibilidades sonoras lhe sejam permitidas). Na verdade, assim como um sintetizador não é um piano, a guitarra-sintetizadora também tem que ser encarada como um novo instrumento, com suas técnicas peculiares.

tec_ins48A mesma situação se aplica aos controladores por sopro. Embora monofônicos, eles permitem conseguir nuances de expressividade inviáveis no teclado. Os modelos mais modernos permitem selecionar transposição, têm sensores de pressão do lábio, detectam a intensidade do sopro e possuem botões especiais que podem controlar algum outro tipo de parâmetro.

Existem ainda dispositivos controladores que não têm qualquer similaridade e nem descendem de instrumentos acústicos. O exemplo mais “clássico” é o Theremin, que capta os movimentos das mãos no ar por meio de antenas especiais, e utiliza esses movimentos para alterar a altura e o volume do som. É um instrumento inusitado, que produz sons bem diferentes. Recentemente o grupo Pato Fu utilizou um Theremin, na música “Eu”.

Alterando Parâmetros do Som

Para dar maior expressividade e controle sobre os parâmetros do som, os sintetizadores possuem diversos dispositivos, cuja técnica de uso difere conforme sua forma. A implementação e atuação desses dispositivos podem variar conforme o fabricante.

O dispositivo mais comum é o pedal de sustain, cuja função é dar sustentação às notas executadas. Nos timbres de piano, violão e outros que originalmente não têm sustentação indefinida, pressionar o pedal de sustain faz o volume do som cair mais devagar (de forma similar ao que acontece quando se pressiona o pedal de sustain do piano acústico). Já nos timbres que podem ser sustentados indefinidamente com a mão (órgão, strings, pads, etc), se o pedal de sustain for pressionado antes das teclas serem soltas, o som permanecerá sustentado enquanto o pedal estiver pressionado. O pedal de sustain do sintetizador é uma chave do tipo liga/desliga (“foot switch”), portanto sua atuação só possui dois estágios (com ou sem sustain), sem situações intermediárias.

Não existe uma padronização quanto à posição do pedal (pressionado/solto) e à posição de sua chave elétrica interna (aberta/fechada), alguns fabricantes adotam a chave aberta para o pedal pressionado e outros, a chave fechada. Para facilitar o uso de qualquer tipo de pedal, alguns teclados (ex.: Korg X5D) permitem que o músico indique no próprio instrumento qual é a “polaridade” do pedal para o acionamento do sustain, enquanto outros (ex.: Yamaha YPR) verificam o estado do pedal quando são ligados e assumem esse estado como “pedal solto”. Uma boa solução, no entanto, foi adotada pela fábrica brasileira Onerr: seu pedal de sustain MS-5 possui uma chave que inverte a operação do pedal e, assim, ele pode ser usado com qualquer equipamento. Simples e barato.

Muitos sintetizadores permitem que o mesmo pedal de sustain (então chamado de “pedal switch”) possa atuar em outras funções do equipamento, como, por exemplo, disparar seqüências e padrões rítmicos, ligar e desligar algum tipo de efeito, etc..

Outro dispositivo também muito comum é o pitchbender, que permite alterar a afinação da nota e possibilita simular no sintetizador os bends da guitarra e do sax, por exemplo. O pitchbender pode ser implementado de formas diferentes, dependendo do fabricante. O tipo mais comum é a roda (“wheel”), mas existem fabricantes que utilizam um joystick ou uma simples alavanca. Uma característica do pitchbender é que o seu ponto de repouso é sempre no meio. Nos modelos que utilizam roda, girando para frente faz subir a altura da nota e, para trás, faz descer; nos modelos que utilizam alavanca ou joystick, movendo para a direita faz subir a altura da nota e, para a esquerda, faz descer. Cada tipo de pitchbender requer uma forma diferente de acionar com a mão, exigindo uma adaptação apropriada do músico.

tec_ins49

O controle de modulation é outro recurso muito útil, pois permite introduzir vibrato ou outros tipos de alteração no som. Assim como o pitchbender, ele pode ser implementado de formas diferentes, sendo roda (“wheel”) a mais comum, sem um ponto de repouso obrigatório. Alguns fabricantes adotam um único dispositivo físico para efetuar as funções de pitchbend e modulation, o que permite ao músico misturar os efeitos no mesmo movimento da mão. A Roland, por exemplo, geralmente usa uma alavanca, que empurrada para frente atua como modulation e, para os lados, atua como pitchbender. Alguns teclados da Korg usam um joystick, com acionamento semelhante à alavanca da Roland.

tec_ins50Além do pedal de sustain, os sintetizadores também utilizam pedais para várias outras funções. Como já foi dito, os parâmetros que possuem dois estágios (ligado/desligado) podem ser controlados por um pedal de sustain, que é uma chave de duas posições (aberta/fechada). Já os parâmetros que possuem valores contínuos necessitam de ajuste gradual (“continuous controller”), e podem ser controlados por um pedal parecido com um acelerador de automóvel. Nos pedais controladores (“foot control”) existe um potenciômetro que varia sua resistência conforme a posição do pedal, ajustando assim o respectivo parâmetro interno do sintetizador. Geralmente ele é usado para controlar o volume do instrumento (“expression pedal”), mas quase todos os sintetizadores que têm entrada para foot control permitem programar sua função, de forma que o músico possa controlar com o pé o vibrato, a freqüência de corte do filtro, ou algum outro parâmetro que desejar.

Como também não existe uma padronização quanto ao valor do potenciômetro interno, o pedal de controle de um fabricante pode não atuar tão bem com o sintetizador de outro. Alguns sintetizadores (ex.: Korg N5EX) permitem ajustar a faixa de atuação do pedal, de forma a compatibilizá-lo com o parâmetro específico que ele vai controlar (alguns pedais dispõem de um knob de ajuste de escala).

tec_ins51Um dispositivo bastante adequado ao controle de parâmetros que necessitem de sensibilidade é o ribbon controller. Ele é constituído de uma superfície retangular de borracha, normalmente comprida, sobre a qual o músico desliza o dedo fazendo uma pequena pressão. Sob esta superfície há um material condutor cuja resistência depende da posição onde o músico pressiona. Um dos primeiros músicos a usar o ribbon controller foi Keith Emerson (E, L & P), no início da década de 1970, num Moog construído especialmente para ele. Posteriormente, vários sintetizadores passaram a incorporá-lo, como os Korg Prophecy e Triton. Alguns sintetizadores e samplers orientados para dance music e DJs usam o ribbon controller porque permite ao músico uma ação bastante similar ao movimento do disco de vinil.

Levando em consideração que as mãos e os pés dos tecladistas já estavam muito ocupadas, a Yamaha introduziu na década de 1980, junto com o DX7, o breath controller, uma espécie de apito “mudo” contendo um sensor de pressão, pelo qual o músico pode usar o sopro para alterar o som. Embora requeira uma coordenação muito grande, esse dispositivo é uma opção a mais, que permite uma nova dimensão física de controlabilidade, além do tato.

Um dispositivo relativamente recente e também muito interessante é o D-Beam, uma tecnologia que a Roland licenciou da Interactive Light. Ele é um sistema com sensor infravermelho que detecta os movimentos que o músico faz com a mão no ar, sobre o painel do instrumento, e assim controla parâmetros e efeitos do som. É prático e ao mesmo tempo performático, pois permite ao artista combinar movimentos corporais às características de sua música (ou vice-versa…).

Configurando os Controles

Como já dissemos antes, uma das grandes vantagens dos instrumentos eletrônicos é que sua arquitetura sonora não está associada a uma estrutura física, como no caso dos instrumentos acústicos. Ou seja, se no piano o pedal de sustain só pode atuar como tal, num sintetizador o mesmo pedal que comanda a sustentação do som pode ser reconfigurado para atuar em outro parâmetro completamente diferente. A versatilidade de um equipamento em termos de endereçamento de controles é um recurso interessante para o músico, pois lhe permite experimentar várias formas diferentes para fazer a mesma coisa.

tec_ins52Os primeiros sintetizadores analógicos eram chamados de modulares porque permitiam interconectar livremente os vários módulos e dispositivos. Isso dava ao músico uma flexibilidade imensa, mas ao mesmo tempo tornava a configuração muito complicada e trabalhosa, pois as interconexões eram feitas por meio de cabos (patch-chords).

Nos sintetizadores digitais, no entanto, todo o processo de roteamento ou “assignment” de um dispositivo a um determinado parâmetro é feito facilmente por botões de ajuste, visualizando a configuração no mostrador do painel. Tão fácil quanto ajustar um relógio digital!

Um dos primeiros sintetizadores digitais a oferecer total roteamento de parâmetros foi o E-mu Proteus. Sua estrutura interna é extremamente flexível e dispõe de diversas fontes de modulação (“modulation sources”), que podem ser endereçadas a qualquer destino (“destination”), sendo que o destino pode ser até mesmo uma outra fonte de modulação. É possível ajustar a intensidade da modulação, que pode ser positiva ou negativa. Na prática, pode-se obter resultados bastante interessantes, como, por exemplo, fazer com que a intensidade do toque na tecla (key velocity) altere simultaneamente o tempo de ataque da nota e a profundidade do vibrato.

tec_ins53

As possibilidades nos sintetizadores digitais são muito grandes e vale o esforço de ler o manual com atenção, para descobrir que é possível controlar alguma coisa de uma maneira mais apropriada a sua forma de tocar.

 

Parte 9: Sintetizadores Virtuais

A constante e profunda evolução da tecnologia digital nos últimos anos leva-nos a esperar grandes transformações também nos instrumentos musicais. Uma forte tendência é a utilização de dispositivos virtuais, como sintetizadores, processadores de efeitos e outros equipamentos. Dentro do processo de integração de recursos num mesmo ambiente operacional, já se pode hoje tocar música MIDI num sintetizador que usa o próprio computador para gerar os sons. Além da redução de custo, isso proporciona, sobretudo, uma melhoria de qualidade, pois o som permanece no domínio digital.

Ontem e hoje

Virtual Sound Canvas A primeira experiência que tive com síntese virtual foi ainda no início da década de 1990, com um software chamado “MIDI Renderer”. Na verdade, ele não era exatamente um sintetizador, pois não podia tocar em tempo real, mas era capaz de produzir um arquivo de áudio (WAV) contendo o resultado final da execução de uma seqüência de um MIDI file.

tec_ins54

Depois veio o Virtual Sound Canvas, da Roland, que já podia ser usado em tempo real (nem tanto “real” ainda, por causa das várias limitações tecnológicas na época), e vários outros começaram a surgir. Hoje, temos uma grande variedade de opções, desde simulado es digitais de antigos sintetizadores analógicos, até samplers virtuais. A qualidade sonora da maioria deles é irrepreensível, e o desempenho – em termos de atraso – parece ser uma coisa bem resolvida.

Realidade Virtual ou Virtualidade Real?

Um sintetizador virtual é um software que utiliza o processador e o hardware adicional do computador para gerar sons, e por isso também costuma ser chamado de “software synthesizer”. Essa classificação pode ser tecnicamente confusa, uma vez que os sintetizadores “reais” (aqueles feitos de metal e plástico, com circuitos dentro!) também utilizam software rodando em seus chips de DSP. De qualquer forma, o termo sintetizador virtual foi adotado para os sintetizadores baseados em software que rodam em computadores genéricos (PC/Windows ou Mac). Existem ainda alguns sintetizadores que são softwares, mas que requerem um hardware específico (placa de áudio com DSP) para poderem operar.

Existem vantagens e desvantagens para os sintetizadores virtuais, conforme poderemos ver no decorrer deste artigo, mas há também outros aspectos bastante importantes que devem ser abordados.

Um dos maiores impactos que os sintetizadores virtuais estão criando diz respeito à mudança no seu processo de produção. Um instrumento “real” é produzido e montado numa fábrica, com estrutura industrial complexa, gerenciamento de estoque de matéria-prima, controle de preços de insumos, custos de energia, embalagem, armazenamento, frete etc. Já o sintetizador virtual é “impalpável”. Ele não possui componentes, e se for vendido por download na Internet, nem precisa ser estocado! Obviamente, seu custo de produção é muito mais baixo – embora o preço final ainda não seja proporcionalmente menor.

Seria até engraçado fazermos uma comparação entre uma fábrica de teclados e uma empresa que produz sintetizadores virtuais. Na primeira, imaginamos um galpão, longe do centro urbano, com máquinas industriais, trabalhadores especializados, almoxarifado com pessoas encarregadas de controlar estoques de peças, e toda a parafernália de uma… fábrica! Adicione a isso as exigências ambientais, trabalhistas, pressão do sindicato da categoria e outros complicadores.

E como seria uma fábrica de sintetizador virtual? Uma sala com alguns computadores e engenheiros de software, talvez um designer para projetar a interface gráfica (o que, aliás, a fábrica convencional também precisa).

Não estou me colocando contra qualquer dos dois processos de produção de sintetizador, mas pense bem nas diferenças entre ambos. É muito interessante, não acha?

Outra característica dos sintetizadores virtuais é a possibilidade de “personalização” da interface com o usuário, de forma que alguns produtos até permitem que o músico escolha a cor do painel e a disposição dos botões de controle (as chamadas “skins”). Isso pode parecer apenas um apelo de marketing, mas de certa forma faz o produto parecer mais amigável.

Os sintetizadores virtuais também podem ser atualizados com facilidade, permitindo ao usuário carregar uma nova versão, com mais recursos, pagando apenas uma pequena taxa ou mesmo gratuitamente. No passado, alguns fabricantes de sintetizadores “convencionais” até ofereceram atualizações de sistemas operacionais, expansões de memória, e outras possibilidades de se aprimorar um determinado equipamento, mas isso tem sido cada vez mais raro nos últimos anos.

Apesar do que foi dito até agora, não me parece que os sintetizadores “de metal e plástico” vão deixar de existir. Para um músico que toca ao vivo, os instrumentos convencionais ainda são mais práticos e mais confiáveis. Mesmo que ele leve um notebook com um sintetizador virtual, precisará de um teclado físico (ou outro dispositivo controlador) para fazê-lo tocar. Afinal, os músicos ainda tocam ao vivo, não tocam?

Creio que uma das grandes vantagens do sintetizador virtual seja a possibilidade de se trabalhar dentro do domínio digital, integrado no mesmo ambiente do software de seqüenciamento e gravação. A possibilidade de visualização gráfica de detalhes do processo de síntese e controle também é um benefício inegável. Quanto ao preço, é provável que se reduza à medida que vão surgindo novos concorrentes.

Tecnicamente Falando…

Para que o sintetizador virtual possa gerar o som em tempo real (ao mesmo tempo que o músico toca as notas), é necessário que o software gerencie adequadamente o enorme fluxo de dados de áudio digital. Em muitos projetos são usados dois buffers para a concentração temporária dos dados, um contendo os dados que já foram gerados pelo sintetizador, e aguardam o momento exato de serem reproduzidos na saída (buffer de escrita), e outro contendo os dados referentes ao som que está efetivamente sendo reproduzido naquele momento (buffer de saída ou de leitura). Nesses casos, o tamanho dos buffers determina o atraso de tempo entre a geração dos dados do som e a sua execução propriamente dita. Por exemplo, se a taxa de amostragem usada pelo sintetizador para gerar o sinal de áudio for 44,1 kHz, e os buffers tiverem um tamanho de 4.096 samples, o atraso será da ordem de 93 milissegundos (sem contar os atrasos do sistema operacional). Quanto menor o tamanho do buffer, menor será o atraso. Entretanto, para se obter uma condição de “buffer mínima” (1 sample) é necessária uma temporização muito precisa do processamento para manter o fluxo adequado dos dados. Isso requer não só um computador muito rápido, mas também um software bem elaborado e um sistema operacional estável e que tenha um comportamento previsível. Complicado, não?

No Windows, a ligação entre o sintetizador virtual e o hardware da placa de áudio é feita pelo “driver”, uma rotina de software que se encarrega de passar os dados corretamente. Na estrutura do Windows existe ainda a API (Application Program Interface), que atua entre driver e o software aplicativo. Para complicar ainda mais as coisas, existem várias APIs para aplicações de áudio: Microsoft MME (herança do Windows 3.1), Microsoft DirectX, ASIO (usada pelo Cubase), EASI (usada pelo Logic) e GSIF (usada pelo GigaSampler). Para que o desempenho de todo o processo de síntese seja aceitável, todos esses componentes de software devem ser bem projetados, com o mínimo de processamento e o máximo de estabilidade. A razão para existirem tantas APIs – que aparentemente deveriam fazer a mesma coisa – é justamente o fato de um fabricante não poder confiar totalmente no projeto de outro. Por isso proliferaram os “remendos” no Windows (veja mais adiante).

O novo modelo de driver da Microsoft – WDM – parece solucionar esta verdadeira “Babel” de drivers e APIs. Os resultados que tenho observado, usando sintetizadores virtuais DXi através de driver WDM, são de fato surpreendentes, com um atraso realmente mínimo e imperceptível.

Para quem trabalha com áudio no Windows, é sempre interessante saber um pouco mais sobre as diversas tecnologias adotadas pelos softwares de gravação e síntese virtual. Por isso procuramos resumir as características mais importantes de cada uma delas:

  • DirectX: É a tecnologia de driver desenvolvida pela Microsoft para o Windows 95 em diante, em substituição à antiga Multimedia Extensions (MME). Veio solucionar vários problemas de incompatibilidade entre dispositivos de multimídia (sobretudo para games). Um dos seus recursos mais poderosos é a possibilidade da operação de plug-ins, isto é, softwares que podem rodar dentro de outros softwares, em tempo real, o que viabilizou a integração de processadores de efeitos junto com softwares de gravação. Também permite transferir os dados de áudio entre softwares diferentes. Por ser da Microsoft, o padrão DirectX obviamente ganhou muitos adeptos, com uma boa quantidade de aplicativos compatíveis com ele. A versão 8 do DirectX trouxe a possibilidade de se automatizar na mixagem o controle dos plug-ins de efeitos, e também estabeleceu um formato padrão para plug-ins de sintetizadores virtuais (DXi), que já foi adotado por vários fabricantes.
  • DXi – DX Instruments: Apesar da sigla, não tem nada a ver com o Yamaha DX7. É o padrão da Microsoft para plug-ins com sintetizadores virtuais no Windows, baseado na tecnologia DirectX. O sintetizador DXi funciona acoplado a uma trilha de áudio, como se fosse um plug-in de efeito comum, e uma vez acoplado aparece então como dispositivo de MIDI para as trilhas de áudio do seqüenciador. Dessa forma, ele pode ser usado tanto para executar a gravação MIDI da trilha quanto para tocar a execução do músico em tempo real, transmitida por um teclado externo. Para que o desempenho seja aceitável, é necessário usar um dispositivo de áudio com driver WDM, pois com os drivers antigos MME a latência é muito alta.
  • ASIO – Audio Stream Input/Output: É uma API desenvolvida pela Steinberg para acessar o hardware de áudio e possibilitar o uso de múltiplos canais de áudio simultâneos, e também de vídeo, adequadamente sincronizados. Foi a solução encontrada pela Steinberg para viabilizar o padrão VST, antes do advento do DirectX. A tecnologia ASIO está disponível para PC/Windows e Mac, e o dispositivo de áudio precisa ter um driver específico.
  • VST – Virtual Studio Technology: É o padrão de plug-ins da Steinberg, que permite a operação de efeitos em tempo real. Popularizou-se bem por ser uma tecnologia disponível tanto na plataforma PC/Windows quanto Macintosh. Embora os plug-ins VST não sejam compatíveis com outras tecnologias, existe um “adaptador” de VST para DirectX, o FXpansion (www.fxpansion.com), que permite usar um plug-in VST num software DirectX. Existe também o VSTDX Wrapper da Spin Audio (www.spinaudio.com), que cria um plug-in DX a partir de um plug-in VST.
  • EASI – Enhanced Audio Streaming Interface: Similar ao ASIO em vários aspectos, a arquitetura foi desenvolvida pela Emagic também para padronizar a comunicação entre o software e o hardware de áudio para aplicações profissionais, sendo que a EASI é de domínio público (a especificação está disponível gratuitamente no site da Emagic). Para que possa ser usada, tanto o software quanto o hardware devem ser especificamente compatíveis com a EASI. Ela existe para PC/Windows e para Mac.
  • GSIF – GigaSampler Interface: É a tecnologia de interfaceamento de software com hardware de áudio desenvolvida pela NemeSys para viabilizar a operação com baixa latência do famoso sampler virtual GigaSampler, numa época em que as APIs existentes não ofereciam capacidade adequada às situações críticas requeridas por um sampler profissional.
  • MAS – MOTU Audio System: É a tecnologia de plug-ins desenvolvida pela MOTU para ser usada com seu software Digital Performer (Mac). Ela também permite efeitos em tempo real e mandadas auxiliares, com o processamento dos efeitos (DSP) efetuados pelo software.

Um dos termos mais falados hoje entre os usuários de PC para áudio é a “latência”, que é o atraso que existe para que uma alteração no som feita no software seja efetivamente ouvida. Ela afeta a resposta global do software de áudio à ação do usuário, e a grande tendência atual para o uso de sintetizadores virtuais tem evidenciado a influência da latência na execução ao vivo.

Embora muitos fabricantes divulguem valores prováveis da latência em seus produtos, ninguém ainda mediu esse parâmetro cientificamente. É certo que quanto menor ela for, melhor será o desempenho do sistema, mas o problema é bem mais complicado do que parece. Existem três fatores principais que atuam sobre a latência total na resposta do sintetizador virtual. Em primeiro lugar está o conversor D/A do dispositivo de áudio, que pode criar um atraso da ordem de 1 a 2 milissegundos. O segundo vilão é o atraso que ocorre entre o pedido de interrupção (IRQ) do hardware e o controle de recepção mais básico do driver e que, de acordo com testes feitos nos EUA, pode ser de 1 a 100 milissegundos. Por fim, temos o atraso decorrente do timing de processamento no sistema operacional e no próprio aplicativo. De acordo com os projetistas da Cakewalk, é possível obter uma latência menor do que 5 milissegundos no Windows 2000.

WDM: alto desempenho já é realidade nos PCs

Os usuários de áudio no Windows finalmente podem ter um alto desempenho com menos complicação. O WDM (Windows Driver Model), disponibilizado em 2000, é a opção da Microsoft para a simplificação do desenvolvimento de drivers, e fornece um modelo unificado tanto para sistemas operacionais domésticos quanto empresariais, prevendo também a possibilidade de migração para sistemas futuros.

O WDM é compatível com todas as plataformas a partir do Windows 98SE, e permite que os fabricantes de hardware possam desenvolver um único driver. Ele tem uma influência considerável nas aplicações de áudio, e oferece um componente de mixagem e resampleamento de áudio que facilita o acesso de várias aplicações ao mesmo hardware. Além disso, o WDM também oferece suporte automático às APIs MME e DirectX, de forma que uma vez que o fabricante de hardware tenha implementado o driver WDM, as outras camadas do driver do sistema darão o suporte ao MME e DirectX.

Para os desenvolvedores de software, o Windows 2000 é o sistema mais indicado para áudio por causa de sua menor latência de interrupção, e o gerenciamento avançado de arquivos (entrada/ saída assíncrona no disco). Tendo o Windows 2000 um grande potencial para o áudio profissional, e o WDM é o modelo de driver para ele, é inevitável uma grande tendência em se adotar o WDM.

Embora na estrutura original do WDM haja algumas limitações de desempenho, devido à bufferização interna do recurso de mixagem, já foi adotada uma solução adequada, graças à previsão para extensões dentro do próprio WDM. No NAMM Show de 2000, a Cakewalk promoveu o primeiro debate anual “Windows Professional Audio Roundtable”, que contou com a participação de representantes das empresas de maior destaque do setor de áudio em PCs. Na ocasião foi apresentada uma proposta para a padronização de soluções.

Com o novo modelo WDM, o aplicativo pode ter acesso às APIs do Windows, como MME/ Wave e DirectSound – o que permite suporte para aplicativos antigos – e para ter baixa latência e alto desempenho, os aplicativos podem se comunicar diretamente com o driver adaptador. Os aplicativos específicos que precisem acessar hardware com APIs do tipo ASIO ou EASI também poderão continuar a fazê-lo sobre o WDM.

A realidade dos sintetizadores virtuais

O uso de sintetizadores virtuais é uma realidade para vários músicos. Essa afirmação soa até engraçada, mas o fato é que já tem muita gente usufruindo as vantagens de ter todo o processo musical rodando dentro do computador.

Existe uma grande variedade de opções no mercado, cada qual com suas características específicas e, obviamente, preços diferentes. Alguns desses sintetizadores são plug-ins, isto é, só funcionam se houver um aplicativo “hospedeiro” sobre o qual eles possam rodar. Outros são autônomos, podendo operar sozinhos. Existem ainda alguns que podem tanto operar como plug-ins quanto sozinhos.

VSamplerUm dos instrumentos virtuais mais conhecidos é o GigaSampler que, como o nome sugere, é um sampler que funciona totalmente por software. Produzido pela NemeSys, ele foi praticamente o primeiro sampler virtual bem sucedido, graças ao seu excelente desempenho e baixa latência. É um instrumento autônomo, que pode ser controlado via MIDI por um teclado externo ou por um software seqüenciador, rodando no mesmo computador. Um dos pontos fortes do GigaSampler, além da sua conhecida qualidade sonora, é que ele dispõe de uma vasta biblioteca de samples, e pode carregar arquivos também de outros samplers (ex: Akai). Como já foi dito acima, o GigaSampler requer a instalação de um driver especial, mas diversas placas de áudio oferecem esse suporte. Outra opção de sampler virtual é o VSampler, que além de poder usar samples em formato WAV e SoundFont, também possui recursos de síntese FM. É uma alternativa barata e “leve”, pois funciona muito bem dentro do ambiente DXi, sem sobrecarregar o computador.

Um sintetizador virtual bastante interessante é o Reason, da Propellerhead. Na verdade, o Reason é mais do que um sintetizador; ele é um rack virtual, com vários equipamentos (sintetizador, sampler, processadores de efeitos, mixer, gravador/seqüenciador). Também funciona de forma autônoma, e é muito bem aceito no mercado, principalmente para aplicações de música eletrônica, dance etc.

Dos fabricantes “convencionais” de sintetizadores, a Roland foi a que obteve a melhor situação no mundo virtual. Lançou o Virtual Sound Canvas há mais de cinco anos atrás, e hoje dispõe de um produto de altíssima qualidade e excelente estabilidade, que é o VSC DXi, um sintetizador multitimbral com o conjunto de timbres do padrão GS/GM que pode atingir até 128 vozes de polifonia. Ele roda como plug-in DirectX (formato DXi) e já vem incluso no Cakewalk Sonar. É uma excelente opção para quem quer fazer uma produção de baixo custo, sem comprometer a qualidade do trabalho.

Existem ainda vários outros sintetizadores virtuais, inclusive algumas recriações em software de instrumentos lendários, como o Prophet-5, um plug-in VST produzido pela Native Instruments, que também tem um clone virtual do Hammond B3, chamado B4.

A seguir, temos uma lista com alguns dos vários sintetizadores virtuais, e onde podem ser encontrados na Internet:

  • B4 e Pro-52 (Native Instruments)
  • Buzz (Tammelin)
  • Chaosynth (Nyr Sound)
  • DreamStation (Audio Simulation)
  • ES1 (Emagic)
  • Gakstoar Delta (Lin Plug)
  • GigaSampler / GigaStudio (NemeSys)
  • Granulab (Ekman)
  • LiveSynth Pro (LiveUpdate)
  • Probe (Synoptic)
  • Reaktor (Native Instrumentos)
  • Reality (Seer Systems)
  • Reason (Propellerhead)
  • Retro AS-1 (BitHeadz)
  • Storm (Arturia)
  • Tassman (Applied Acoustics)
  • VAZ Modular (M.Fay)
  • Vibra9000 (Koblo)
  • VSampler DXi (SpeedSoft)
  • VSC DXi (Roland)
  • WaveWarp (Sound Logical)

 

Parte 10: Fontes de consulta

Para concluir nossa série de artigos sobre os instrumentos musicais eletrônicos, nada melhor do que apresentar algumas das fontes de referência que foram pesquisadas.

Livros e revistas

Infelizmente, no Brasil existe pouca literatura especializada em instrumentos musicais eletrônicos. Os livros que abordam o assunto são muito raros, e as alternativas são os eventuais artigos em revistas especializadas, como Música & Tecnologia. Conforme prometido no primeiro artigo desta série, segue a lista com as principais fontes que tive a oportunidade de consultar:

  • A Practical Approach to Digital Sampling – Terry Fryer (Hal Leonard, USA, 1989). Este livro foi publicado há mais de dez anos, mas os conceitos sobre samplers e como utilizá-los continuam bastante válidos. A abordagem é clara, e as explicações técnicas são feitas em linguagem acessível, mesmo para quem está iniciando no assunto. Obviamente, os exemplos utilizam equipamentos que já estão obsoletos para os padrões atuais, mas é uma obra bastante rica em informação.
  • Electronic Music Circuit Guidebook – Brice Ward (Tab Books, USA, 1977). Traz vários diagramas esquemáticos de circuitos utilizados em sintetizadores analógicos.
  • Electronic Music Production – Alan Douglas (Tab Books, USA, 1974). Um dos primeiros livros que consegui sobre música eletrônica. É uma abordagem técnica, com vários diagramas esquemáticos de circuitos eletrônicos – analógicos – para uso em sintetizadores e processadores de efeitos.
  • Musical Applications of Microprocessor – Hal Chamberlin (Hayden Books, USA,1987). Excelente referência sobre técnicas digitais para uso em processamento de sinais e síntese de sons. Este livro apresenta conceitos sobre áudio e processamento digital, e mostra algumas implementações práticas, com diagramas e exemplos de programação.
  • The A-Z of Analogue Synthesizers – Peter Forrest (Susurreal, England, 1996). Esta é talvez a obra mais completa sobre sintetizadores analógicos. O autor catalogou uma enorme quantidade de instrumentos, de vários fabricantes e países. Embora a edição tenha sido feita de forma econômica, o livro traz fichas técnicas com muita informação e avaliações sobre qualidade e recursos de cada instrumento.
  • Vintage Synthesizers – Mark Vail (Miller Freeman, USA, 2000). Outro livro essencial para quem gosta de sintetizadores em geral. É uma compilação de textos já publicados pela revista Keyboard, e contém entrevistas com Bob Moog, Keith Emerson e outras personalidades importantes do meio musical tecnológico.
  • Além dos livros, alguns artigos foram “garimpados” em diversas revistas, dentre eles SY77 Music Synthesis, de Mike Barnes, publicado na revista Electronics Today International, em setembro de 1990, e The Complete Guide To Software Synths, de Dennis Miller, publicado na Electronic Musician, em julho de 2000. E para não dizer que no Brasil não se escreve sobre o assunto, existe o artigo Modelagem Física: uma Nova Era Para a Síntese de Sons, de minha autoria, publicado na revista Música & Tecnologia, em 1994.

Informação Online

A Internet é hoje uma excelente fonte de material para consulta, com muita informação disponível. Mas é preciso avaliar com muito cuidado a origem do conteúdo, pois como qualquer um pode publicar qualquer coisa, também fica fácil de se colocar um texto com informações erradas. É recomendável sempre, portanto, verificar se o autor é confiável. A seguir vai uma lista de alguns dos sites mais interessantes:

  • 120 Years Of Electronic Music – Homepage com resumo dos acontecimentos mais importantes na música eletrônica desde 1870 (EUA).
  • Audities Foundation – Instituição dedicada à preservação de instrumentos musicais eletrônicos e respectiva documentação. A homepage possui boas fotos de vários sintetizadores (EUA).
  • Electronic Music Foundation – Instituição dedicada à divulgação de informações sobre música eletrônica e tecnologias aplicáveis à musica. Dispõe de vários artigos bastante interessantes (EUA).
  • Harmony Central – Site com conteúdo bastante abrangente sobre equipamentos musicais (EUA).
  • IRCAM – Instituição de pesquisa no campo da arte e da música, e uma das maiores referências mundiais em música eletrônica (França).
  • Mellotron – Homepage com bastante informação sobre Mellotrons e Chamberlins (Canadá).
  • Moog Archives – Homepage com coletânea de fotos, diagramas, e artigos sobre os mais famosos sintetizadores analógicos (EUA).
  • Synth & MIDI Museum – Homepage com referências sobre modelos raros de sintetizadores e outros equipamentos de música eletrônica (EUA).
  • Synth Zone – Site bastante completo sobre sintetizadores analógicos e digitais, e outros equipamentos musicais (EUA).
  • The Hammond Zone – Homepage com bastante informação sobre os órgãos Hammond (Inglaterra).
  • Vintage Synth Explorer – Outro site bastante completo sobre sintetizadores analógicos e digitais, e outros equipamentos musicais (EUA).
  • Virtual Synthesizer Museum – Mais um site com muitas informações e imagens sobre sintetizadores e equipamentos musicais (EUA).

_______________________________________________________________________

Estes artigos foram publicados originalmente na revista Música & Tecnologia em 2001

Copyright ©2001 Miguel Ratton