焦点:ミリ秒遅れを解消せよ、音楽家と技術者のタッグで新技術
[ストックホルム/ロンドン 21日 ロイター] - COVID-19(新型コロナウイルス感染症)によるロックダウンで離ればなれの状態が続く中、ミュージシャンたちは何とか一緒に演奏活動をしようと知恵を絞ってきた。
オンライン接続におけるミリ秒単位での遅延を解消しようとテクノロジー企業と手を組んだことで、音楽の領域を越えた技術革新が加速している。
演奏者と聴衆が切り離されている今、共にライブ演奏を楽しむという体験を再創造するため、演奏する音と耳に届く音の遅延、いわゆる「レイテンシー」の抑制に向けて、ミュージシャンと技術者とが一体となった努力が続けられている。
サンフランシスコ・オペラが、ロッシーニの歌劇「セビリアの理髪師」のリハーサルで使ったのは、「アロハ」と呼ばれるデバイスの試作品だ。
ストックホルムに本社を置くElkが、スウェーデンの通信機器大手エリクソンと英ボーダフォン・グループ、そして米ベライゾン・コミュニケーションズと提携して開発した製品である。
(以下略、続きはソースでご確認下さい)
ロイター 2021年4月25日8:02
https://jp.reuters.com/article/coronavirus-opera-technology-idJPKBN2CA0GD
引用元: ・【技術】ミリ秒遅れを解消せよ、音楽家と技術者のタッグで新技術 [すらいむ★]
コンサートで口パクだったことがあるとか
遅延なんて気にしても
遅延を気にするしないの話じゃなくて遅延があるから改善しようの話
技術的には可能なのに気にしなくて良いで止まってる部分があるんだよ
気にせざるを得ないの。
練習すらまともにできない
>演奏する音と耳に届く音の遅延、いわゆる「レイテンシー」の抑制に向けて、ミュージシャンと技術者とが一体となった努力が続けられている。
なんでそんなことをするのか、さっぱり分からん。
無能は黙ってろ
くそつまんねえ
物理的にできるわけねーじゃん
光の速度に由来する遅延は解消できんからなぁ
それにIP電話だと音声を20msecごとにデータにして送信してるけど
これはつまり音声データ送信時に既に最低でも20msecの遅延が発生してることを意味する(エンコード・デコードの時間を無視しても)
なかなか対策は難しい
5Gがその水準までの同期遅延で済むから音楽的には問題ないって趣旨の記事だぞ。
具体的にどのくらい離れた距離で試したのか書いてくれないとね
無線なのか有線なのか
専用線なのか共用線なのか
同一建物内の話だとしたら笑い話にもならん
>>11
音速は340m/秒
1ミリ秒で34センチ
20ミリ秒で7メートル
コンサートホールのステージの横幅は20メートルほど
大したことなさそうじゃないかw
ミリ秒速34センチメートル
地球のむこう、合奏の場所
君の音(ネ)は
電気の子
遠隔でもaptX Low Latencyよりも遅延しないって凄いね。
最低でも言ってるだろ
実際はその数倍数十倍になるよ
同じプロバイダ回線が必要にhならんのかな
ガチンコでやるなら光専用線じゃないの?
ipv6は単純に住所を細かくしただけだから通信速度改善にはならない
通信容量は増やせるけどハードによっては処理が多くなってむしろ遅延増える
場合、音の空気を伝わる遅延時間があるから、オーケストラの楽団の分布はそれほど
拡げることは難しい。たとえば1000人とか1万人で演奏をするとなると、
指揮者の棒振りを観て一緒に音を鳴らしていても、音の伝わる遅延時間がバラバラ
なので、観客席には時間がいろいろにずれた音がやってくるので、まともな音楽に
ならないんだ。
これは相対性理論の応用だな
1998年長野の冬季五輪開会式式典でベトベンの第九を演奏した時
中継した犬HKがどんな手練手管を使って辻褄を合わせたか
ググって見ると
ニューヨークが最大で往復4秒遅れるから
遅れの少ない地域の映像と音声を遅らせてニューヨークの
タイミングに合わせて放送したようだ。
遅れて映像と音声が届くニューヨークの分を早めることは
不可能。
だから普通のオーケストラの場合、せいぜい楽器の数は200台ぐらいまでだろう。
かつて、19世紀末だか20世紀初頭の万国博だったかで、1万人のオーケストラ
で第九だったかが演奏されたことがあるらしいが。
電気信号による通信や遅延を作るアナログあるいはデジタルの技術を使うことで
(簡単なアナログ装置はテープ録音と再生を感覚を少しずらして行う)、
ディレイを入れて音を出しているものは物理的には離れているが
時間タイミングを補正して見かけ上合わせることができるようになったので、
今なら離れた場所での演奏を疑似同時にして音を合わせることはできる。
ヤル気になれば月面と地球からの合奏でもできる。
お互いにモニターし合う事が出来ない
コンサートホール内でもミリ秒くらいの遅れは出そうなものだが、どうなんだろうな。
まあ各員のモニタ用でミリ秒くらいズレている音源を
配信用でキッチリ合わせるっていう方法はあると思う。
パケットサイズが大きくなれば効率が上がり帯域量という速度が向上するが
レイテンシー(遅延)となる応答速度は落ちる。
このレイテンシーが時間の遅れの正体だ、
>>24
音の発生源が同じなら遅れる時間はどの楽器でも同じだけ遅れるので音と音の遅延で
リズムが狂わない。
ミリ秒といえど、拍手が完全一致とミリ秒ずれてばらけているのではまったく別に聞こえる。
遅延する残響の音量の小さくなった反射音ではないのです。
ライブなどでは映像と音がずれる遅延が大きな問題ということ。
地方大会止まりの元吹奏楽部だけど
それでも1/100秒以下のタイミング合わせは要求されたな
うん、オレには無理!
放送分野はインターネットなんか無い頃から全国ネットの生放送とかやってる。
当時の方がむしろ遠距離でのリアルタイム性は優っていた。
NHKで稼働してた原子時計が日本中のテレビ、ラジオでミリ秒の狂いもなく時刻を告げていた。
全ての楽器の音声パケットはサーバに集約して
パケットのUETと共にバッファして、
全ての楽器データをガッチャンコして、
マルチキャストで配信。通信は実質H323一択。
QoSでPQ全振り。
オマケに中継器機の遅延含めたら20ミリとか嘘くせえな
時報も微妙にズレてんだろうな
移行期間中母親のテレビがデジタルで
俺のがアナログだったけど
デジタルが2~3秒遅かったような記憶が有る
最終的に配信を10秒くらい遅らせば良いと思うよ
>>34
デコードの他に、地デジは伝送遅延もあるよ
例えば沖縄だと、東京より6~8秒くらい遅れる
そんなに遅れるとか森のクマさんだな
音質にこだわるなら電柱の汎用ではなく自家用変圧器を用意したい。
複数のアーティストのバラバラの遅延を
一番遅い遅延に合わせる。
それぞれのアーティストのメトロノームは
世界標準時から発生させる。
じゃダメかな?
ドラム→ベース→ギター→ボーカルと順番にレコーディングするみたいな同時演奏なら可能やけど、ギターのグルーブにドラムが合わせるみたいなライブ演奏は今んとこ不可能
データがたまってから
圧縮するんだから遅れるに決まってる
あとTCP/IPもUDPも
リアルタイム目的に作られたものじゃない
ルーター通すし無理
UDPはリアルタイム目的だよ
地球の反対を最短で結んだとしても単純に1/14sec。
そない上手いこといかんから1/5secとかになると音楽的には無理や。
1/300くらいにまで追い込む必要ある。
セビリアの理髪師初演(1775)パイジエッロ版オペラ初演(1782)ロッシーニ版オペラ初演(1816)
フィガロの結婚初演(1784)モーツァルト版オペラ初演(1786)
罪ある母初演(1792)ダリウス・ミヨー版オペラ初演(1966)
音楽放送がされていた時期がある。立体音響堂という番組だった。
それ専用のチューナーを付けたラジオとかステレオ装置も売られていたが、
FM放送が開始になってから廃れた。これって果たして日本全国で聴取できた
のだろうか?まともにステレオで聴けたのは大都市近郊だけだったのではないか?
地方の事情を知らないので、当時地方にいた田舎の方で詳しい人居たら教えてね。
電波発信地点が二周波数とも同じなら何ら問題なかろう