Midjourney V8.1 中有一个叫做 --stylize 的参数,数值范围从 0 到 1000。多数教程至今仍建议把数值推到 750 甚至更高,以获得「更具艺术感」的效果。但在 V8.1 Alpha 中,这个建议反而会让你的图像变差,而非变好。新版本只奖励一个远为狭窄的数值范围,当你掌握这一点,下一张图的质量会立刻明显提升。
V8.1 于 2026 年 4 月 14 日推出,底层改动足以让 V6 与 V7 时代养成的习惯失效。本文整理出五个真正能提升 V8.1 输出质量的技巧,包括大多数人设错的参数,以及几乎没有人在用的功能。
Midjourney V8.1 究竟更新了什么?
Midjourney V8.1 Alpha 于 2026 年 4 月 14 日发布,预设输出 HD 高清图像,无需手动升级即可生成 2K 解析度,并更新了 Style Reference 系统,新增 --sv 1 至 --sv 4 四个版本选项。HD 模式速度比 V8 Alpha 快约三倍,成本亦降低三倍;标准解析度速度则约快五成。模型对精确提示的反应更敏锐,但对含糊提示的容忍度也更低。
V8.1 同时深度整合了 Style Creator 工具,让你透过视觉网格选图的方式产生可重复使用的 --sref 代码。结果是图像系列的视觉一致性大幅提升,但前提是你愿意放弃 V7 时代那些已经被 V8.1 默默扣分的提示习惯。
技巧一:将 --stylize 锁定在 100 至 400 之间
在 V8.1 Alpha 中,--stylize 的实用甜蜜点是 100 到 400。任何高于 500 的数值都会带来视觉杂讯、过度饱和的色彩,以及那种一看就知道是 AI 而非刻意创作选择的失真效果。预设值是 100,多数最佳作品会落在 200 到 350 之间。
这与 V7 的玩法有真正的转变。在 V7 中,把 --stylize 推到 750 至 1000 是进阶用户获得艺术感的常用手法。但 V8.1 模型本身已经在预设情况下加入更多诠释与风格化处理,再叠加极端的 stylize 数值,往往会把结果推到偏离原始提示的程度。如果你的图像「看起来太 AI」,先降低 stylize 数值,再考虑修改提示其他部分。
建议测试方法:用同一段提示分别跑 --stylize 100、--stylize 300、--stylize 800。在 V8.1 Alpha 中,前两者通常才是值得保留的版本,第三个则往往带有梦境感,与原本的设计意图脱节。
技巧二:当「精致感」反成累赘,加上 --style raw
当你需要更粗糙、更真实、更接近纪录片或编辑类照片质感的结果时,请在提示末尾加上 --style raw。它会剥离 Midjourney 预设的「美化光环」,让图像看起来不再像唱片封面或时尚杂志封面,而更接近诚实的视觉。在产品摄影、新闻图、企业形象照等任何「真实感」比「梦幻感」更重要的情境下,这个参数是必备。
不加 --style raw 时,V8.1 会自动为几乎任何人像或场景加上电影感打光、皮肤柔化和高度饱和的色彩。这对奇幻插画和音乐封面很合适,但对企业 headshot、地产广告或任何需要「真实感」的图像而言,反而是错误方向。
实用工作流程是:先在不使用 --style raw 的情况下起草提示,看看预设美化效果如何,再用 --style raw 重跑一次。两个版本并排比较,你会立即看出哪一个才是你的设计简报真正需要的。
技巧三:以数字 --sref 代码取代上传参考图
数字 --sref 代码(例如 --sref 3986738193)会调用 Midjourney 内部风格库中的预设视觉风格,产出的一致性远胜于上传参考图。图像式风格参考会因上传质量、光线、裁切等变量而产生波动;数字代码则是确定性的,可在团队间重复使用,并能为整个图像系列锁定可预测的视觉基调。
进阶用户通常会建立一份 10 至 20 个常用数字代码的个人库,对应不同类型的工作:一个用于编辑类人像、一个用于产品 hero shot、一个用于情绪板、一个用于 80 年代复古风、一个用于极简摄影棚。sref-midjourney.com 与 promptsref.com 等网站均可按类别浏览代码,方便你锁定一个再正式使用。
要控制风格强度,请搭配 --sw 参数,数值范围 0 至 1000。建议从 --sw 100 开始:如果风格过于主导、盖过了主体,就降低数值;如果结果太通用,就调高数值。你也可以使用 --sref random 探索新风格,再从输出中提取已解析的代码留存重用。
技巧四:用 Style Creator 建立可重复使用的品牌风格
Midjourney V8.1 内建的 Style Creator 工具让你透过在视觉网格中挑选与排除图像,自动生成一个可重复使用的 --sref 代码。这个代码会在你之后的每一张图中固定整体美学,是任何经营内容系列、品牌账号、产品目录的人都需要的关键环节。
第一次使用大约需要十分钟。打开 Style Creator,浏览一张张生成图像的网格,点击符合你品味的,明确排除不符合的。工具会根据两种讯号三角定位出一个能捕捉你视觉 DNA 的风格代码。完成后,把代码存到密码管理器或笔记应用中。
有了这个代码,每段提示都会变得更短。你不再需要写「温暖电影感调色、柔和自然光、Kodak Portra 400 底片质感、轻微颗粒、编辑类构图」,而是只写主体再附上你的代码。输出在数百张图像之间保持高度一致,这正是「看起来像同一个品牌」与「看起来像十个不同自由工作者拼凑」的差异。
技巧五:用真实摄影师名字取代抽象形容词
V8.1 对知名摄影师、导演、视觉艺术家姓名的反应,远比「电影感」或「氛围感」这类抽象词语精准。名字本身承载了压缩过的视觉意义。「Annie Leibovitz portraiture」这一个短语就同时编码了打光风格、构图哲学、主体框架与色调处理;而「cinematic portrait」对模型而言几乎没有具体讯息。
同样逻辑适用于不同题材。「Roger Deakins cinematography」比「warm tones」更能精准锚定电影感色板。「Wes Anderson centred composition」直接给出特定的构图规则。「Helmut Newton fashion editorial」用三个字封装了数十年的构图与打光语言。
把名字与 --style raw 搭配使用,能让画面保持写实。一段提示如 「a CFO in a glass-walled boardroom, mid-afternoon light, Annie Leibovitz portraiture, --style raw --stylize 250」 在 V8.1 中持续优于 「a CFO in a boardroom, professional, cinematic, dramatic lighting」。
立即试试这段提示
把以下模板复制到 Midjourney V8.1 Alpha 中,把主体与参考风格换成你的实际需要再执行。模板结构刻意围绕前述五个技巧设计,让你能感受每个参数真正在做的事:
模板:
[8 至 15 个字描述你的主体], [场景与情绪], [摄影师或导演姓名 + 视觉类型], shot on [底片或相机型号(如适用)], [打光描述] --style raw --stylize 250 --sref [你储存的代码或 random] --sw 100 --v 8.1
实作范例:
a Hong Kong food stall owner in his sixties, behind a crowded dai pai dong on a humid summer night, candid documentary portrait in the style of Steve McCurry, neon and incandescent mixed lighting, shot on Kodak Portra 400, slight motion blur in the background --style raw --stylize 280 --sref random --sw 100 --v 8.1
把这段原样跑两次。再尝试一次同样的提示但去掉 --style raw。对比结果就能看出,当你不再对抗 V8.1 的预设逻辑,它对提示的回应其实比 V7 更敏锐。
会毁掉 V8.1 输出的三个常见错误
三个错误会持续摧毁 Midjourney V8.1 的输出质量:堆叠过多风格参考、用模糊形容词而非具体名词与动词撰写提示、以及忘记设定版本旗标。即使你提示的其他部分都做得好,这三个错误都会明显拉低结果。先修正这三点,再去调整前面五个技巧。
第一个错误是同时堆叠三个或以上的高强度风格参考。V8.1 会试图混合所有风格,最后产出没有任何单一风格占优、视觉混乱的图像。请限制自己一次只用一个 --sref 代码,或最多两个但用差异明显的 --sw 数值清楚分配主从。
第二个错误是依赖「美丽」、「惊艳」、「华丽」这类形容词。它们对模型完全没有构图信息。请把每个形容词换成具体的名词或动词:「低角度镜头」、「晨雾从水面缓缓升起」、「主体前倾向光源」。具体的提示产出具体的图像。
第三个错误是在 V8.1 仍处于 Alpha 阶段时,忘记在提示末尾加上 --v 8.1。如果你不指定版本,可能会被预设导向旧模型,永远看不到 V8.1 真正的能力。在 Alpha 期间请务必明确标注版本。
V8.1 至今仍力有未逮的范围
即使套用全部五个技巧,Midjourney V8.1 在三类任务上仍会明显失败:解剖学精准的近景手部与手指、图像中的准确文字、以及需要多名特定角色互动的场景。这些是模型层面的限制,并非提示问题,再怎么调整 stylize 数值也无法在单张渲染中解决。
对于图内文字,请先生成不含文字的图像,再用 Figma、Photoshop 或 Canva 后期排版。对于复杂手部姿势,先生成较宽的构图让手较小,再 upscale。对于多角色场景,分两次处理:每次只生成一个角色再合成。这些变通方法比与模型硬碰硬要快得多。
诚实的事实是:2026 年没有任何 AI 图像工具能一次渲染就交出完成稿。Midjourney V8.1 能用一小部分时间帮你完成 80%,剩下 20% 仍然是人类的工艺。这是生产力倍增器,不是魔法按钮。懂AI,更懂你 UD相伴,AI不冷。
准备把这套思路整合进真正的 AI 工作流程?
Midjourney 只是更大 AI 工作流程中的一个环节。如果你想理清哪些 AI 工具适合你工作的哪个部分,并且在每次新版本推出时不必重新摸索,UD 团队手把手带你完成每一步,从工具筛选、提示设计,到建立每次都能稳定产出的可靠制作流程。
或者用 UD AI IQ Test 测试你目前的 AI 知识深度。