index

回顧《禾日鑲聲》

· 4min

訊號流

這整個演出的設備工作 flow 大概是:

Strudel → OSC → SC → Pipewire → Audio Interface

演出計劃

主要是因為活動偏向展覽性質,演出加上解說時間總加大約在十分鐘以內,因此採取一邊操作並解說的模式進行,畢竟 live coding 實在也沒什麼演出的規定之類的,感覺也很難介定哪邊是真正的開始或結束,只要我想達到的最終狀態有呈現出來,覺得就算是達到目標。

技術與困難

應該是從線性編曲轉向 live coding 創作有些不太習慣,當然對它還不算很熟也是個原因,抓不清楚可以達到什麼程度的表現,所幸官方的 doc 還蠻平易近人……

後來摸出一套流程可供參考:

  1. 先決定樂曲基本要素(調性、BPM、風格……)
  2. 在 DAW 試做一個「主題」(數小節的循環) 和預計加入的聲響
  3. 按照需求將 sample 切片 (1/4、1/8、1/16……),方便對上時間軸,也比較不會產生 pitch 改變的問題

hydra 的整合

strudel 裡可以直接把 hydra 也放進去一起使用,甚至可以直接在裡面做聲音觸發、連動 BPM 等,省去不少工具整合的麻煩。

Code

//   __    __  _______   __    __   ______
//  /  |  /  |/       \ /  |  /  | /      \
//  $$ |  $$ |$$$$$$$  |$$ |  $$ |/$$$$$$  |
//  $$ |__$$ |$$ |__$$ |$$  \/$$/ $$ \__$$/
//  $$    $$ |$$    $$<  $$  $$<  $$      \
//  $$$$$$$$ |$$$$$$$  |  $$$$  \  $$$$$$  |
//  $$ |  $$ |$$ |  $$ | $$ /$$  |/  \__$$ |
//  $$ |  $$ |$$ |  $$ |$$ |  $$ |$$    $$/
//  $$/   $$/ $$/   $$/ $$/   $$/  $$$$$$/
//
// HRXS Project @ 2025 by ewd

await initHydra()

setcpm(120 / 2)

let kP = '<k  [~ [~ [~ k]]] k ~ k [~ [~ [~ k]]] [k [~ k] k ~] ~> / 2'
let sP = '<~ s ~ s> / 2'
let pP = '<0 2 3 4> 1 <2 0 13 2> 4 <13 0 1 2> 2'

let bt = 64

// Macro
const pMacro = register('pMacro', (degrade, jux, bin, iter, pat) =>
  pat
    .degradeBy(degrade)
    .juxBy(jux, (x) => x.hurry('0.5 3 8 2.1 2.3 7 4').iter(iter))
    .struct(binaryN('1000 2000 1999', bin))
    .ply('<2 3 4 2> / 4')
    .slow('<4 3 8 6>')
    .coarse('7 | 5 | 10')
)

let colors = arrange([bt, s('<colors> / 64')], [bt, s('<colors:1> / 64')])

let felt = arrange([bt / 2, s('felt / 32')], [bt / 2, s('felt:1 / 32')])

// -------START HERE--------- //

//sine
// GAIN MUTE ONLY
sine: s('<~ sine ~ sine> / 4')
  .n('0 | 1 | 2 | 3')
  // .chop("16")
  .striate('16')
  .degrade()
  .legato(1)
  .often((x) => x.jux(hurry(4)))
  .room(0.3)
  .gain(0)

// eco
_eco: s('<eco>')
  .n(choose('0 | 1 | 2 | 3 | 4'))
  .loopAt(8)
  .room(0.1)
  // .delay(0.4).dt(0.3)
  .hpf(300)
  .gain(0.8)

// swt
_swt: s('<swt> / 4')
  .n('<1> | <2> | <3> | <4>')
  // .jux(x => x.chop(4))
  .hpf(600)
  .gain(0.8)

// p
// pMacro(degrade[0 - 1], jux[0 - 1], bin[1 - 32], iter[1 - 4])
// "mute" not working

_p: s('p').n(pP).pMacro(0.4, 0.3, 16, 2).phaser('<0.5 0.2 0.3 0.5> / 4').phaserdepth('0.3').gain(1)

// chime
_chime: s('chime')
  .n('0 | 1 | 2 | 3')
  .jux((x) => x.chop(4))
  .degradeBy('0.7')
  .legato(0.5)
  .room(0.1)
  .gain(0.7)

// xylo
_xylo: s('xylo')
  .striate(choose('32 | 15 | 8 | 4'))
  .degrade()
  .sometimesBy(0.8, (x) => x.hurry('2').coarse(2))
  .slow('<4 5 6>')
  .shape(0.3)
  .gain(1)

// piano colors
_colors: colors.gain(1.3)

// drum
_drum: stack(s(kP), s(sP)).shape(0.2).room(0.4).delay(0.2).gain(1)

// felt piano
_felt: felt.gain(1.5)

_chord: arrange(
  [bt / 2, stack(s('chord / 32'), s('chord:1 / 32').hpf(500).coarse(10).gain(0.3))],
  [bt / 2, stack(s('chord:2 / 32'), s('chord:1 / 32').hpf(500).coarse(10).gain(0.3))]
).gain(1.3)

// Hydra

osc(60, 0.05, 0.1)
  .diff(osc(H('<10 5 1 5> / 4'), H('<0.1 0.2 0.1 0.4> / 4'), 0.3).rotate(() => (time % 360) * 0.2))
  .modulateScale(
    // <<-
    voronoi(20, 1)
      // shape(10, 0.8, 0.2)
      // osc(20, 0.3, 0.2)
      // noise(5, 0.2)
      .modulate(src(o0).rotate(time % 360)),
    H('<0.1 0.3 0.3 0.1> / 4') // <--
  )
  .color(H('<1 0.9 0.8> / 8'), 0.5, 0.6, H('<0.2 0.1 0.3> / 8'))
  .blend(src(o0).modulatePixelate(o0), H('<0.2 0.3 0.5> / 16'))
  .luma(0.3, 0.5)
  .invert()
  // .kaleid(H("<4, 8, 12, 6> / 16"))
  .blend(src(o1), 0.8) //alpha
  .out(o0)