Audiotech logo

Czym jest MIDI?

Spis treści

Napięciowe początki

Swego czasu syntezatory, które do końca lat 70. pozostawały w znacznej mierze analogowe, były sterowane głównie w oparciu o swój wewnętrzny język komunikacji między modułami, oparty na zmianach napięcia i komunikatach bramkujących. Każdy, także współczesny syntezator jest konstrukcją modułową, tyle tylko, że w mniejszym lub większym stopniu zakamuflowaną. W swojej korzennej postaci takie moduły jak VCA, VCF czy VCO wymieniały między sobą napięcia sterujące Control Voltage/Gate (CV/Gate), wyzwalając i kończąc dźwięk, zmieniając jego wysokość, parametry filtracji, wprowadzając modulację itp.

Napięciowe początki

Swego czasu syntezatory, które do końca lat 70. pozostawały w znacznej mierze analogowe, były sterowane głównie w oparciu o swój wewnętrzny język komunikacji między modułami, oparty na zmianach napięcia i komunikatach bramkujących. Każdy, także współczesny syntezator jest konstrukcją modułową, tyle tylko, że w mniejszym lub większym stopniu zakamuflowaną. W swojej korzennej postaci takie moduły jak VCA, VCF czy VCO wymieniały między sobą napięcia sterujące Control Voltage/Gate (CV/Gate), wyzwalając i kończąc dźwięk, zmieniając jego wysokość, parametry filtracji, wprowadzając modulację itp.

W podobnej formie odbywała się też współpraca między manuałem (klawiaturą, zestawem manipulatorów, sekwencerem i innymi urządzeniami wykonawczymi) a samym instrumentem generującym dźwięk. Jeśli użytkownik miał sprzęt jednego producenta, na ogół działało to wszystko dość sprawnie, ale już współpraca ze światem zewnętrznym była wyjątkowo kłopotliwa.

Choć format napięciowy CV/Gate był na ogół dość szeroko respektowany, to już jego szczegółowa implementacja bywała różna. Chodziło tutaj o wartości i zakres zmian napięć sterujących, format impulsu bramkującego i szereg innych detali, które dzisiaj są już nieistotne, a kiedyś stanowiły przeszkodę nie do przejścia.

Arturia RackBrute 3U napięciowe początki

Wprowadzenie do syntezatorów dedykowanych układów scalonych zaprowadziło nieco porządku. Niemal wszyscy europejscy i amerykańscy wytwórcy instrumentów elektronicznych (bo Japończycy wybrali własną drogę) zaczęli korzystać ze zintegrowanych oscylatorów, filtrów oraz obwiedni. To sprawiło, że ustabilizował się standard napięcia sterującego 1 wolt na oktawę oraz dodatni impuls w zakresie 5-15 woltów jako sygnał bramkujący.

Tak jednak było do czasu, gdy producenci dostrzegli potencjał technologii cyfrowej, głównie w zakresie mikrokontrolerów. Chodziło tu przede wszystkim o możliwość zapisywania i przywoływania kompletnych ustawień, dziś zwanych presetami, czy szybkie zmiany konfiguracji całego toru syntezy.

Wraz z popularyzacją mikrokontrolerów sterowanie CV na bazie sygnałów analogowych przestawało mieć jakiekolwiek znaczenie. Każdy wykorzystywał własne algorytmy oraz własne systemy komutacji i w chwilę potem znów każdy z producentów zaczął oferować inne formaty wymiany danych między poszczególnymi elementami swoich systemów, zwłaszcza w kontekście sterowania pracą syntezatora.

Jedno stawało się oczywiste. Syntezator jako zwarta i zamknięta struktura przestawał mieć rację bytu. Zdążono już zauważyć, jakie możliwości daje integracja kilku urządzeń, np. maszyny perkusyjnej, syntezatora basowego i syntezatora grającego partie arpeggio z systemem nagraniowym oferującym możliwość synchronizacji za pośrednictwem kodu czasowego.

Wprowadzenie do syntezatorów dedykowanych układów scalonych zaprowadziło nieco porządku. Niemal wszyscy europejscy i amerykańscy wytwórcy instrumentów elektronicznych (bo Japończycy wybrali własną drogę) zaczęli korzystać ze zintegrowanych oscylatorów, filtrów oraz obwiedni. To sprawiło, że ustabilizował się standard napięcia sterującego 1 wolt na oktawę oraz dodatni impuls w zakresie 5-15 woltów jako sygnał bramkujący.

Tak jednak było do czasu, gdy producenci dostrzegli potencjał technologii cyfrowej, głównie w zakresie mikrokontrolerów. Chodziło tu przede wszystkim o możliwość zapisywania i przywoływania kompletnych ustawień, dziś zwanych presetami, czy szybkie zmiany konfiguracji całego toru syntezy.

Wraz z popularyzacją mikrokontrolerów sterowanie CV na bazie sygnałów analogowych przestawało mieć jakiekolwiek znaczenie. Każdy wykorzystywał własne algorytmy oraz własne systemy komutacji i w chwilę potem znów każdy z producentów zaczął oferować inne formaty wymiany danych między poszczególnymi elementami swoich systemów, zwłaszcza w kontekście sterowania pracą syntezatora.

Jedno stawało się oczywiste. Syntezator jako zwarta i zamknięta struktura przestawał mieć rację bytu. Zdążono już zauważyć, jakie możliwości daje integracja kilku urządzeń, np. maszyny perkusyjnej, syntezatora basowego i syntezatora grającego partie arpeggio z systemem nagraniowym oferującym możliwość synchronizacji za pośrednictwem kodu czasowego.

Arturia RackBrute 3U napięciowe początki

Pierwsze nagrania muzyki popularnej w znacznej mierze oparte na elektronice pojawiły się już w latach 70., zaś artyści zaczynali przejawiać apetyt na rozwiązania coraz to bardziej zaawansowane i dające im więcej możliwości w zakresie kreowania nowych struktur.

Potrzeba integracji stała się wręcz paląca z chwilą pojawienia się pierwszych komputerów domowych. Zaraz potem niemal wszyscy zainteresowani zdali sobie sprawę z tego, że to komputer będzie centralnym elementem systemów tworzenia i nagrywania muzyki. Nie można było pozwolić sobie na zignorowanie tego faktu i zaistniała potrzeba wprowadzenia wspólnej płaszczyzny komunikacji.

Odpowiedzią producentów okazał się zupełnie nowy wówczas format Musical Instrument Digital Interface (MIDI), nad którym prace trwały przez kilka lat. Byli w nie zaangażowani czołowi producenci instrumentów elektronicznych z przełomu lat 70. i 80., choć nie wszyscy i nie z takim samym zaangażowaniem.

Dziś już niewielu o tym pamięta, ale MIDI wcale nie został przyjęty fanfarami i głośnym westchnieniem ulgi, że nareszcie mamy język, który pozwoli swobodnie komunikować się samym syntezatorom oraz narzędziom, które stały się pełnoprawnymi instrumentami muzycznymi nowej ery. Dziś nazywamy je kontrolerami MIDI.

MIDI jako język komunikacji

Gdy już wiemy, jaką potęgą jest MIDI i jak bardzo format ten, zwłaszcza dzięki kontrolerom i narzędziom programowym zmienił współczesną muzykę, warto przyjrzeć się jego niełatwym początkom. To może rzucić trochę światła na teraźniejszość, która z tej historycznej perspektywy wygląda bardzo interesująco. W kontrolerach MIDI nic nie musi być tym, czym jest. W przeciwieństwie do klasycznych, akustycznych instrumentów muzycznych każdy element kontrolerów ma zdolność przypisania mu niemal dowolnej funkcji.

Przykład? Załóżmy, że nie używamy najniższego klawisza w naszym manuale, ale brakuje nam czegoś, co uruchomi i zatrzyma odtwarzanie w programie DAW. Jeśli nasz kontroler MIDI dostarczany jest wraz z dedykowanym oprogramowaniem pozwalającym na konfigurację funkcjonalności kontrolera, a tak jest w przypadku wielu produktów Novation, Studiologic czy Arturia, to rzecz jest banalnie prosta. Najniższy klawisz manuału przypisujemy do sterowania funkcją odtwarzania w DAW (z użyciem platformy takiej jak np. MCU), aktywujemy tryb bistabilny (włącz/wyłącz) i zatwierdzamy ciąg zdarzeniowy.

Przed 1983 rokiem na drodze wielu eksperymentów, dyskusji i doświadczeń amerykańscy producenci opracowali standard USI (Universal Synthesiser Interface), który miał zintegrować wszystkie instrumenty elektroniczne w ramach jednolitej platformy wymiany danych. W jego finalnej wersji postanowiono dodać izolację optyczną transferu dla uniknięcia pętli mas i zwiększyć szybkość do 31,25 kilobodów.

Ale japońskie firmy, które niezależnie pracowały nad własnym rozwiązaniem, opracowały ciekawszą wersję USI. Poza zwykłym rozróżnieniem włącz/wyłącz nutę, ich protokół obsługiwał znacznie więcej poleceń w oparciu o inną strukturę danych. W efekcie okazał się znacznie prostszy, bardziej funkcjonalny i wydajny.

novation flkey midi jako język komunikacji

Zatem MIDI, takie jakie znamy dziś, to efekt połączenia rozwiązań firm japońskich z protokołem USI. Początkowo miał się nazywać UMI (czytane jako ju-mi), ale w końcu zdecydowano się na MIDI (Musical Instrument Digital Interface).

Od 1983 roku wszystkie instrumenty, które zostały wyposażone w funkcjonalność MIDI mogły się w miarę bezproblemowo komunikować wymieniając szereg informacji o charakterze wykonawczym. Warto wspomnieć, że dla ułatwienia protokół pozostał szeregowy, a pojedynczy pakiet wykorzystuje bit startu, 8 bitów informacji i bit zakończenia. Czas jego transferu wynosi 320 mikrosekund. Jako port komunikacyjny zaproponowano DIN-5 z uwagi na jego niską cenę i powszechną dostępność, choć nie wykluczono też użycia złączy typu XLR, które ostatecznie przyjęły się w zakresie podobnych funkcjonalnie komunikatów DMX, standardowo wykorzystywanych przy sterowaniu profesjonalnym oświetleniem.

Oryginalny format MIDI wymaga zastosowania oddzielnych gniazd dla wejścia i dla wyjścia, ale obecnie, gdy transfer MIDI dokonuje się przez USB, sieć czy Bluetooth, nie jest to już wymagane. Jeden port obsługuje dwukierunkową łączność.

Organizacja protokołu MIDI wykorzystywanego np. w kontrolerach, trochę przypomina telewizję kablową. Na pojedynczym porcie, załóżmy, że jest to gniazdo USB, możemy przesłać 16 różnych treści, zwanych kanałami, oznaczonymi od 1 do 16. Każdy z nich może mieć zupełnie inne przeznaczenie i funkcje do spełnienia. Na jednym mogą być transmitowane dane sterujące perkusją, na drugim komunikaty wyzwalające dźwięki basu, na trzecim akordy i tak dalej.

Tak powstały instrumenty wielobrzmieniowe (multitimbralne), wyposażone w 16 niezależnych źródeł dźwięku (syntezatorów, samplerów, maszyn perkusyjnych). Dzięki temu można uzyskać efekt gry szesnastu wirtualnych muzyków, przy czym każdy będzie grał to, co dla niego zaprogramowano, w wybranej tonacji, tempie i z dopuszczoną dla danego instrumentu liczbą głosów jednocześnie (polifonią).

Protokół MIDI w praktyce

Jednym z największych atutów standardu MIDI jest możliwość współpracy pomiędzy różnymi urządzeniami muzycznymi niezależnie od producenta. Artysta może na przykład stworzyć ścieżkę na jednym urządzeniu i przesłać ją do innego, aby wykorzystać różne brzmienia, efekty i instrumenty. Dzięki temu standardowi, współpraca artystów na odległość stała się rzeczywistością, co w dzisiejszych czasach ma ogromne znaczenie dla rozwijającej się muzyki elektronicznej.

Standard MIDI odgrywa kluczową rolę w produkcji muzycznej. Dzięki niemu kompozytorzy i producenci mogą z łatwością wprowadzać zmiany, dostosowywać i edytować swoje utwory. Umożliwia także synchronizację różnych urządzeń jak syntezatorysamplery i grooveboxy, co pozwala na skomponowanie wielowarstwowych utworów z wykorzystaniem wielu instrumentów i brzmień. Dodatkowo warto wskazać możliwość kontrolowania kluczowych parametrów miksu. Wszystko to sprawia, że pomimo faktu, iż komputery w głównej mierze przejęły rolę „centrali” do produkcji muzycznej i kreatywnego przekształcania dźwięku, to możemy pracować z dźwiękiem bardziej ekspresyjnie bez potrzeby wykorzystywania myszki, co jest często o wiele przyjemniejszym odczuciem i które powoduje większe przełożenie „nas” w muzykę.

Arturia KeyLab Essential 88 mk3 protokół midi w praktyce

Przyszłość MIDI

Standard MIDI jest jednym z najważniejszych osiągnięć w historii muzyki cyfrowej. Jego wprowadzenie zmieniło sposób, w jaki muzyka jest komponowana, produkowana i wykonywana na całym świecie. Dzięki MIDI, twórcy muzyczni mają nieograniczone możliwości wyrażenia swojej kreatywności i współpracy z innymi artystami na całym globie. Ten wszechstronny protokół pozostaje kluczowym elementem dla przemysłu muzycznego i zapewne będzie się rozwijał wraz z postępem technologicznym, przyczyniając się do nieustannego rozwoju i rewolucji w muzyce cyfrowej. W 2020 roku pojawiły się pierwsze informacje i wstępne specyfikacje MIDI 2.0, które nie jest ewolucją dotychczasowego protokołu. Jedynie bazuje na rozwiązaniach, które znalazły się w oryginalnej odsłonie standardu. Przede wszystkim MIDI 2.0 nie będzie miało jednego konkretnego połączenia – będzie można je stosować przez istniejące połączenia DIN-5, USB, Ethernet, Thunderbolt czy bezprzewodowo. Część parametrów jak velocity zwiększy swoją rozdzielczość z 7 bitów do 16 (128 możliwości vs 65 tysięcy możliwości), a część jak np. odstrojenie nawet do 32 bitów, co daje już miliardy kombinacji. Funkcja MPE (Multidimensional Polyphonic Expression), która pojawiła się między innymi w Waldorfie Quantum i Iridium będzie jeszcze precyzyjniejsza. Dodatkowo istotnym elementem ma być dwukierunkowa komunikacja podłączonych urządzeń, które wzajemnie się informują czym są i w jaki sposóļ funkcjonują. Wszystko to ma sprawić, że praca z muzyką i dźwiękiem będzie jeszcze intuicyjniejsza, przyjemniejsza, dokładniejsza i bardziej ekspresyjna.

Znajdź w audiotechpro.pl

Pokaż wszystkie wyniki

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Pokaż wszystkie wyniki

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors