Для ориентира, возьмем гипотетическую вебкамеру: разрешение 1мегапиксель, глубина цвета 3х8=24бит.
Считаем битрейт: 1*24*30=720 мегабит в секунду. С большим гаком перекрывает даже теоретический потолок USB2 (480mbit/s). Это узкое место. Без сжатия 30 кадров в секунду не получить никак. Причем, это сжать должна сама камера, еще до попадания на USB2.
Если взять данные твоей камеры, то: 1,2*12*30=432 мегабит в секунду. Теоретически укладывается на пределе.
Когда телевидение еще только начинало становиться цветным, чтобы втиснуть его в полосу черно-белого телевидения (6мгц), придумали "аппаратное сжатие" YUV.
Основное, вместо сигналов основных цветов (RGB) используются цветоразностные (YUV). Это позволяет немного снизить требования к полосе сигнала (битрейту).
Еще больще снижает требования то, что сигналы U и V передаются с меньшим разрешением.
Самое максимальное качество обеспечивает формат 444. Остальные: 422, 420, дают качество хуже.
К сожалению, тонкости я уже забыл. Здесь надо смотреть, какой из вариантов может аппаратно выдавать твоя камера. Сильно сомневаюсь, что она умеет 444.
На обычном видео это показывает вполне приемлемые результаты. А как это скажется в "астросъемке" не берусь предположить.
Здесь надо понимать. Почти наверняка видеокамера выдает видео в одной из разновидностей YUV. Даже если далее ты используешь кодек, который выдаст RGB, это только еще лишнее преобразование. Потери YUV уже не вернешь ничем.
Я так понимаю, как таковое, видео тебе не нужно. Оно используется вместо "быстрой серийной фотосъемки". В таком случае, может лучше смотреть возможности камеры в направлении "быстрой серийной фотосъемки".
Здесь опять узким местом станет USB2. Но может быть 10кадров "фото" окажутся лучше, чем 30кадров "видео".
В любом случае, придется ориентироваться, чтобы "выход с камеры" понимал твой "специализированный софт".