Type | Other |
Stats | 200 |
Reviews | (22) |
Published | Jan 12, 2024 |
Base Model | |
Hash | AutoV2 0C02329D19 |
Updated:
The convert_cond function has been moved to sampler_helpers. Fixed taking the original latent instead of the previous latent in the last steps. Now you should see the difference in the level of detail.
Combining my two KSampler and text encoder into one node with a few changes. First, GPT expands both positive and negative prompts, then diffusion steps take place, then, BLIP expands your positive prompt with what it "sees" on generation, then, GPT expands what BLIP "saw", and finally, extra diffusion steps take place. GPT and BLIP are not very "talkative", so increase the maximum response length of both. The operator from the original text encoder has been replaced by "+", and the principle of its operation has changed, now it calculates the average latent for the whole prompt and the sum of each partitioned part. From the model patches I left only PerpNeg in order to preserve the edge of convenience and controllability.
已更新:
convert_cond 函数已移至 sampler_helpers。修正了在最后几步中使用原始潜影而不是前一个潜影的问题。现在你应该能看到详细程度上的差异了。
将我的两个 KSampler 和文本编码器合并为一个节点,并做了一些改动。首先,GPT 会扩展正向和反向提示,然后执行扩散步骤,接着,BLIP 会根据它在生成时 "看到 "的内容扩展您的正向提示,然后,GPT 会扩展 BLIP "看到 "的内容,最后,执行额外的扩散步骤。GPT 和 BLIP 都不太 "爱说话",因此要增加两者的最大响应长度。原始文本编码器中的运算符被 "+"所取代,其工作原理也发生了变化,现在它计算的是整个提示的平均潜伏值和每个分区部分的总和。在模型补丁中,我只保留了 PerpNeg,以保留方便性和可控性的优势。
Обновлено:
Функция convert_cond перенесена в sampler_helpers. Исправлено взятие исходного латента вместо предыдущего на последних шагах. Вот теперь должна быть заметна разница в уровне детализации.
Объединение двух моих KSamplerов и текстового кодировщика в одну ноду с некоторыми изменениями. Сперва GPT расширяет и позитивный, и негативный промпты, потом проходят шаги диффузии, затем, BLIP расширяет ваш позитивный промпт тем, что "видит" на генерации, далее, GPT расширяет то, что "увидел" BLIP, и наконец, проходят экстра шаги диффузии. GPT и BLIP не очень "разговорчивы", поэтому увеличивайте максимальную длину ответа у обоих. Оператор из оригинального текстового кодировщика заменён на "+", изменился и принцип его действия, теперь он вычисляет усреднённый латент для всего промпта и суммы каждой разделённой части. Из патчей модели оставил только PerpNeg в целях сохранения грани удобства и контролируемости.