XR文字输入技术

这篇具有很好参考价值的文章主要介绍了XR文字输入技术。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

VR/AR/MR(统称为XR)有望成为个人电脑、手机之后的下一代计算平台,元宇宙的硬件入口。

近年来XR发展迅猛,不仅可以应用于游戏、影视领域,还在军事、医疗、办公、教育等领域有巨大的发展前景。然而相比于XR强大的显示技术,其文字输入技术在效率和灵活性方面还远远落后。

文字输入是计算机的基本功能。个人电脑的打字靠物理键盘,手机的打字靠触摸屏软键盘。XR要成为普适的计算平台,必然要解决文本输入这一基本需求。人机交互研究者已经开发了多种面向XR的打字技术,但各有其不足,目前尚未出现主流的输入技术。下面分类介绍几种代表性的XR文字输入技术。

基于外设的手部输入

物理键盘

利用人们对于物理键盘的熟悉度,研究者将物理QWERTY键盘或其变体应用于XR中作为输入设备。但由于在XR应用中,通常无法(或不方便)看到物理键盘和手,一些研究者提出将键盘和手的视频混合到显示中的方法,还有研究者利用光学跟踪技术来跟踪键盘和手,以提供视觉反馈。

XR文字输入技术

Knierim等(2018)

这些方法通常支持快速和丰富的文本输入,但物理键盘需要一个平坦的表面作为支撑,而且其携带起来太笨重,这限制了XR的使用。此外,物理键盘大多借助跟踪技术来获得更好的打字性能,这在实现上也有困难。

传统手柄

电视遥控器、传统游戏手柄等可以实现简单的文字输入,使用者需要通过多次离散的按键来选择字母或符号。这些传统手柄的便携性比全尺寸物理键盘好,也不需要支撑平面。但是这种方式只能实现最简单的文字输入,而且多次离散的按键会导致输入速度非常的慢。

此外,研究者将虚拟键盘划分为多个区域进行打字实验。比如,PizzaText使用游戏控制器的两个控制杆在圆形键盘布局中进行选择,Min等人则将键盘布局划分为3*3个单元格,通过指向单元格来选择按键。
XR文字输入技术

PizzaText(Yu等,2018)

虽然手柄在XR中打字很容易学习,但这类方法输入速度很慢,主要适用于难度较低的按键选择等任务,不适合在办公等应用中进行复杂、大量的文本输入。

触摸屏

触摸屏或触控板上的文本输入,将熟悉的手机交互带入虚拟现实。比如BlindType探索了用一个拇指在触控板上盲打字,用户在一个有想象的QWERTY键盘的屏幕上敲击,同时在显示器中接受文本的反馈。这类方法通常将虚拟界面与触摸屏(比如智能手机)对齐来进行输入。
XR文字输入技术

BlindType(Lu等,2017)

然而这类方法通常需要额外的大尺寸触摸屏或触摸板作为输入设备,这导致XR使用上的不方便。此外,触摸屏打字基于间接的视觉反馈,需要额外的注意跟踪当前的状态,相比于触觉反馈并不直观有效。

6DoF手柄

多数消费级的VR头显,比如Oculus Quest、Pico等,都支持利用手柄指示的射线来选择字母。这种输入方式很直观、易学,但是这种打字方式需要持续的视觉注意力和精细的手柄控制,用户长时间打字会有明显的疲倦感,因而它也并不适用于复杂、大量的文本输入任务。

利用头戴摄像头跟踪手

一些VR/AR眼镜(比如Oculus Quest、HoloLens)利用基于视觉的手势跟踪技术追踪用户的手,打字时一个虚拟键盘将被投射到用户视野中,用户的手指被眼镜中的摄像头实时跟踪,并通过手指在虚拟键盘上的“触控”实现输入。

XR文字输入技术

HoloLens2的虚拟键盘

这种方式通过内置头戴摄像头实现类似于手机中的触控打字,但在有遮挡或者手指快速运动时可能出现误差,其使用的光学跟踪技术也相对昂贵。此外,长时间悬空操作容易导致用户疲劳。

外部相机

XR文字输入技术

Vulture(Markussen等,2014)

佩戴在身体上或外部的相机可以用来识别手部的动作或手势,从而实现XR打字。TypeNet等方法通过光学跟踪实现在相机前的平面上快速打字,这些方法需要在虚拟的QWERTY键盘上打字,延续用户的打字习惯。OmniTouch是一款肩戴式深度感应和投影系统,可以在手掌等平面上进行文本输入。其他方法通过识别手势实现了悬空的文本输入,比如Vulture通过跟踪捏紧的手指,根据在空中手指的运动轨迹输出最佳的匹配单词。

基于外部相机的文本输入方法不依赖物理键盘,使得文本输入更加灵活。然而,研究表明:(1)用户在快速运动时可能会因跟踪误差而限制速度,(2)长时间手悬空打字后会导致用户疲劳。由于基于相机的手指跟踪仍然是一个具有挑战性的问题,这些研究大多使用昂贵的光学跟踪技术,这导致这类方法实用性不足。和VR眼镜的手势跟踪方法相比,基于外部的相机实现的打字方法更不方便,因为需要额外携带体积较大的跟踪设备。

可穿戴的手部输入

这里指利用戴在手上的传感器进行打字。

手套

手套作为可穿戴的交互式传感设备是实现文本输入的一种途径。KITTY和DigiTouch利用手套上的电子触电或部分导电区域来检测手指触摸事件,实现复杂的手指输入交互。Argot是一款有15个按钮的单手可穿戴手套,通过磁反应结合触摸反馈实现打字交互。

然而这些打字方式均要求用户戴手套,这会影响用户日常交互,在灵活性和舒适性上存在缺陷。

XR文字输入技术

Pinch Keyboard(Kuester等,2005)

手腕

另一种可穿戴式文本输入方法是佩戴有不同传感器的腕戴设备。PalmType使用左手手腕上的红外传感器来检测用户右手食指在左手手掌上的位置。BlueTap和DigiTap将字母按顺序映射到手指上,并使用手腕上的摄像头来检测敲击。当存在手指遮挡和快速敲击时,腕戴式相机很难准确检测敲击位置。还有基于MYO肌电传感器的打字技术(被Meta收购)。

XR文字输入技术

PalmType(Wang等,2015)

ViFin识别悬空手指的书写轨迹实现打字,它使用智能手表的惯性测量单元(IMU)来检测用户食指运动时的振动情况,并利用深度网络对食指书写的字符进行解码,其计算量较大,且ViFin的识别精度相对较低。TapType使用两个带有IMU的无线腕带(TapID技术中首次引入)来感知手指在平面上轻触产生的振动,并用解码器对十指打字的字符序列进行估计。TapType作为一种基于学习的手指识别方法,需要以有监督的方式训练分类器,在不同用户和表面材料上可能存在泛化问题。

XR文字输入技术

TapType(Streli等,2022)

手指

佩戴在手指上的设备使用起来灵活轻便,可以通过感应手指旋转/触摸事件和识别手势来实现富有表现力的文本输入交互。例如,FingeRing基于手指敲击事件与加速度计的组合生成键的映射,并允许在任何表面(如腰部或大腿)上输入。类似地,TypingRing和QwertyRing通过不同的传感器衡量手指的运动,并在任何类似桌面的表面上识别虚拟键盘上选定的键。TypeAnywhere使用两个Tap Strap(商用的基于IMU的手指穿戴设备)来检测任何表面上的敲击。RotoSwype使用一个运动跟踪传感器和一个带按钮的贴环实现基于手势的文字输入。

XR文字输入技术

TypeAnywhere(Zhang等,2022)

基于手势的方法缺乏足够的键来快速输入,因此这些方法不适合复杂的文本输入。基于加速度等运动信息或手的旋转来感知按键事件的设备,通常需要辅助传感信息来确保准确的输入。在这些方法中,文本输入的操作需要非常精确,这对于初学者来说并不直观,在XR环境中很难学习。此外,上述技术大多采用统计解码器来提高输入速度和纠错,对于更大符号集等打字任务缺乏有效的输入方式。

除了通过检测手指的运动信息来打字外,通过感知身体的触摸事件来输入文本的方法也被广泛研究。TipText,BiTipText和ThumbText在手指上戴微型的触摸传感器,在两次触摸事件后选择字符。FingerText和FingerT9利用电容感应技术,通过拇指和手指之间的手内触摸来实现单手文本输入。

XR文字输入技术

TipText(Xu等,2019)

在上述基于触摸传感器的技术中,按键键被映射到手指、手掌或指甲上的不同区域。这些方法充分利用了手指的灵活性。然而,手指打字的输入区域通常受到很大限制(如果面积过大,就有手套的缺点),从而限制了按键的数量,导致打字效率低下。事实上,它们中很少支持全字符集输入。

为解决这个问题,PrinType利用戴在拇指上的的指纹传感器来识别手指的不同区域,大大扩展了输入空间,同时不影响手指执行其他任务。PrinType通过将当前图像与注册模板匹配来识别传感器接触的位置,手指的不同区域被分配给不同的键,在虚拟现实中构成一个功能齐全的键盘。由于手指的灵活性和指纹识别技术的有效性,手指掌侧的大部分位置都可以被触摸和识别,这适应了典型键盘中包含的大量的离散按键的需求。利用指尖灵敏的触摸感知能力和实时的视觉反馈,PrinType可以实现虚拟现实中的盲打字。

XR文字输入技术

PrinType指纹打字技术支持大量符号集,包括大小写字母、数字、标点符号等。(Liu等,2022)

其他技术

XR的头显中嵌入各种传感器,可以测量头部和眼睛的运动,或记录声音。语音识别的发展使得语音转录文字成为一种成熟的文本输入方法,然而在某些场合下,说话并不方便,并且语音输入缺乏有效的文字编辑技术。Yu等人和Speicher等人比较了基于头部指向的文本输入技术,Ma等人和Rajanna等人研究了VR中的凝视打字方法。然而,在这些方法中,用户需要将光标移动到目标位置,然后通过视线一定的时间停留在该字符上来选择字符,从而导致输入时眼睛的疲劳。

总结

XR中高效的文字输入是尚未解决的问题。一项文字输入技术要想在XR中流行,有许多需要考量的指标,除了需要在盲操作时有快速而准确的输入潜力,该打字方法还要易学习、便携性好、造价不能过于昂贵等。最重要的是,要能很好的嵌入XR系统,在交互时足够方便舒适、有很好的用户体验感。文章来源地址https://www.toymoban.com/news/detail-458047.html

参考文献

  1. Aakar Gupta, Cheng Ji, Hui-Shyong Yeo, Aaron Quigley, and Daniel Vogel. 2019. RotoSwype: Word-Gesture Typing Using a Ring. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (pp. 1–12).
  2. Anna Peshock, Julia Duvall, and Lucy E. Dunne. (2014). Argot: A Wearable One-Handed Keyboard Glove. In Proceedings of the 2014 ACM International Symposium on Wearable Computers: Adjunct Program (pp. 87–92).
  3. Ben Maman and Amit Bermano. (2022). TypeNet: Towards Camera Enabled Touch Typing on Flat Surfaces through Self-Refinement. In 2022 IEEE/CVF Winter Conference on Applications of Computer Vision (pp. 567–576).
  4. Chris Harrison, Hrvoje Benko, and Andrew D. Wilson. (2011). OmniTouch: Wearable Multitouch Interaction Everywhere. In Proceedings of the 24th Annual ACM Symposium on User Interface Software and Technology (pp. 441–450).
  5. Chun Yu, Yizheng Gu, Zhican Yang, Xin Yi, Hengliang Luo, and Yuanchun Shi. (2017). Tap, Dwell or Gesture? Exploring Head-Based Text Entry Techniques for HMDs. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (pp. 4479–4488).
  6. Dash, S. (2017). BlueTap—The Ultimate Virtual-Reality (VR) Keyboard.
  7. DoYoung Lee, Jiwan Kim, and Ian Oakley. (2021). FingerText: Exploring and Optimizing Performance for Wearable, Mobile and One-Handed Typing. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (pp. 283-298).
  8. Dube, T. J., & Arif, A. S. (2019, July). Text entry in virtual reality: A comprehensive review of the literature. In International Conference on Human-Computer Interaction (pp. 419-437). Springer, Cham.
  9. Eric Whitmire, Mohit Jain, Divye Jain, Greg Nelson, Ravi Karkar, Shwetak Patel, and Mayank Goel. (2017). DigiTouch: Reconfigurable Thumb-to-Finger Input and Text Entry on Head-Mounted Displays. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 1(3), 113-134.
  10. Falko Kuester, Michelle Chen, Mark E. Phair, and Carsten Mehring. (2005). Towards Keyboard Independent Touch Typing in VR. In Proceedings of the ACM Symposium on Virtual Reality Software and Technology (pp. 86–95).
  11. Junhyeok Kim, William Delamare, and Pourang Irani. (2018). ThumbText: Text Entry for Wearable Devices Using a Miniature Ring. In Proceedings of the 44th Graphics Interface Conference (pp. 18–25).
  12. Kim, J., Delamare, W., & Irani, P. (2018, May). Thumbtext: Text entry for wearable devices using a miniature ring. In Graphics Interface.
  13. Knierim, P., Schwind, V., Feit, A. M., Nieuwenhuizen, F., & Henze, N. (2018, April). Physical keyboards in virtual reality: Analysis of typing performance and effects of avatar hands. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (pp. 1-9).
  14. Kyungha Min. (2011). Text Input Tool for Immersive VR Based on 3×3 Screen Cells. In Proceedings of the 5th International Conference on Convergence and Hybrid Information Technology (pp. 778–786). Springer-Verlag, Berlin, Heidelberg.
  15. Lee, D., Kim, J., & Oakley, I. (2021, May). Fingertext: Exploring and optimizing performance for wearable, mobile and one-handed typing. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (pp. 1-15).
  16. Liu, Z., He, J., Feng, J., & Zhou, J. (2022). PrinType: Text Entry via Fingerprint Recognition. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 6(4), 1-31.
  17. Lu, Y., Yu, C., Yi, X., Shi, Y., & Zhao, S. (2017). Blindtype: Eyes-free text entry on handheld touchpad by leveraging thumb’s muscle memory. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 1(2), 1-24.
  18. Manuel Prätorius, Dimitar Valkov, Ulrich Burgbacher, and Klaus Hinrichs. (2014). DigiTap: An Eyes-Free VR/AR Symbolic Input Device. In Proceedings of the 20th ACM Symposium on Virtual Reality Software and Technology (pp. 9–18).
  19. Marco Speicher, Anna Maria Feit, Pascal Ziegler, and Antonio Krüger. (2018). Selection-Based Text Entry in Virtual Reality. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (pp. 1–13).
  20. Markussen, A., Jakobsen, M. R., & Hornbæk, K. (2014, April). Vulture: a mid-air word-gesture keyboard. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 1073-1082).
  21. Masaaki Fukumoto and Yasuhito Suenaga. (1994). “FingeRing”: A Full-Time Wearable Interface. In Conference Companion on Human Factors in Computing Systems (pp. 81–82).
  22. Nirjon, S., Gummeson, J., Gelb, D., & Kim, K. H. (2015, May). Typingring: A wearable ring platform for text input. In Proceedings of the 13th Annual International Conference on Mobile Systems, Applications, and Services (pp. 227-239).
  23. Pui Chung Wong, Kening Zhu, and Hongbo Fu. (2018). FingerT9: Leveraging Thumb-to-Finger Interaction for Same-Side-Hand Text Entry on Smartwatches. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (pp. 1–10).
  24. Shahriar Nirjon, Jeremy Gummeson, Dan Gelb, and Kyu-Han Kim. (2015). TypingRing: A Wearable Ring Platform for Text Input. In Proceedings of the 13th Annual International Conference on Mobile Systems, Applications, and Services (pp. 227–239).
  25. Speicher, M., Feit, A. M., Ziegler, P., & Krüger, A. (2018, April). Selection-based text entry in virtual reality. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (pp. 1-13).
  26. Streli, P., Jiang, J., Fender, A. R., Meier, M., Romat, H., & Holz, C. (2022, April). TapType: Ten-finger text entry on everyday surfaces via Bayesian inference. In Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems (pp. 1-16).
  27. Vijay Rajanna and John Paulin Hansen. (2018). Gaze Typing in Virtual Reality: Impact of Keyboard Design, Selection Method, and Motion. In Proceedings of the 2018 ACM Symposium on Eye Tracking Research & Applications (pp. 15-25).
  28. Wang, C. Y., Chu, W. C., Chiu, P. T., Hsiu, M. C., Chiang, Y. H., & Chen, M. Y. (2015, August). PalmType: Using palms as keyboards for smart glasses. In Proceedings of the 17th International Conference on Human-Computer Interaction with Mobile Devices and Services (pp. 153-160).
  29. Wenqiang Chen, Lin Chen, Meiyi Ma, Farshid Salemi Parizi, Shwetak Patel, and John Stankovic. (2021). ViFin: Harness Passive Vibration to Continuous Micro Finger Writing with a Commodity Smartwatch. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 5(1), 45-70.
  30. Wong, P. C., Zhu, K., & Fu, H. (2018, April). Fingert9: Leveraging thumb-to-finger interaction for same-side-hand text entry on smartwatches. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (pp. 1-10).
  31. Xinyao Ma, Zhaolin Yao, Yijun Wang, Weihua Pei, and Hongda Chen. (2018). Combining Brain-Computer Interface and Eye Tracking for High-Speed Text Entry in Virtual Reality. In 23rd International Conference on Intelligent User Interfaces (pp. 263–267).
  32. Xu, Z., Chen, W., Zhao, D., Luo, J., Wu, T. Y., Gong, J., … & Yang, X. D. (2020, April). Bitiptext: Bimanual eyes-free text entry on a fingertip keyboard. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13).
  33. Xu, Z., Wong, P. C., Gong, J., Wu, T. Y., Nittala, A. S., Bi, X., … & Yang, X. D. (2019, October). Tiptext: Eyes-free text entry on a fingertip keyboard. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology(pp. 883-899).
  34. Yizheng Gu, Chun Yu, Zhipeng Li, Zhaoheng Li, Xiaoying Wei, and Yuanchun Shi. (2020). QwertyRing: Text Entry on Physical Surfaces Using a Ring. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 4(4), 128-157.
  35. Yu, D., Fan, K., Zhang, H., Monteiro, D., Xu, W., & Liang, H. N. (2018). PizzaText: text entry for virtual reality systems using dual thumbsticks. IEEE transactions on visualization and computer graphics, 24(11), 2927-2935.
  36. Zhang, M. R., Zhai, S., & Wobbrock, J. O. (2022, April). TypeAnywhere: A QWERTY-Based Text Entry Solution for Ubiquitous Computing. In CHI Conference on Human Factors in Computing Systems (pp. 1-16).
  37. Zheer Xu, Pui Chung Wong, Jun Gong, Te-Yen Wu, Aditya Shekhar Nittala, Xiaojun Bi, Jürgen Steimle, Hongbo Fu, Kening Zhu, and Xing-Dong Yang. (2019). TipText: Eyes-Free Text Entry on a Fingertip Keyboard. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 883–899).
  38. Zheer Xu, Weihao Chen, Dongyang Zhao, Jiehui Luo, Te-Yen Wu, Jun Gong, Sicheng Yin, Jialun Zhai, and Xing-Dong Yang. (2020). BiTipText: Bimanual Eyes-Free Text Entry on a Fingertip Keyboard. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1–13).

到了这里,关于XR文字输入技术的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 公共电脑/个人电脑上配置git和github

    1.1 下载和安装git 下载链接:git官网 完整的安装教程可以参考这篇博客:Git 详细安装教程(详解 Git 安装过程的每一个步骤) 1.2 配置git (1)个人电脑 如果你的电脑是个人使用的,那么可以直接配置git的全局参数,这样每次新建一个git库都是用一样的用户名和邮箱。 用户名和

    2024年02月22日
    浏览(82)
  • 个人电脑进行AI数据训练需要的硬件配置

    随着深度学习、人工智能等领域的不断发展,对计算机的性能要求也越来越高。多显卡的配置可以有效提升计算机的性能,进而提高AI数据训练的效率。本文将介绍如何在个人计算机上安装多个显卡进行AI数据训练,并给出三套支持4个显卡的经济型配置,并讨论二手矿卡的使

    2024年02月06日
    浏览(102)
  • AI PC:赋能个人电脑的人工智能革命

    导语:AI PC是一种集成了人工智能(AI)技术的个人电脑,它不仅具备传统PC的功能,还具备AI算力和AI功能。AI PC的出现为用户带来了更便捷、智能的使用体验,推动了PC行业的发展。本文将介绍AI PC的定义、特点以及对PC行业的影响。 一、AI PC的定义和特点 AI PC是指集成了人工

    2024年04月13日
    浏览(86)
  • cpolar+LightPicture,将个人电脑改造成公网图床服务器

    现在的手机越来越先进,功能也越来越多,而手机的摄像功能也愈发强大,所拍摄的照片越来越清晰,但也让数码照片的体积暴涨。对于像笔者这样经常拍照的人来说,手机容量经常告警,因此笔者将家里的电脑改造成能随时上传下载和访问的图片服务器。今天,笔者就为大

    2024年02月05日
    浏览(85)
  • 你的电脑该如何选择?-涵子的个人想法

    最近,苹果出了一系列的新的电脑,例如Mac Studio,Mac Pro和MacBook Air。三个电脑彻底向我们诠释了:电脑的性能,可以“无限”扩大。至于我们这些“程序猿”,比较钟爱Windows和Linux,那么,电脑该如何选择?我们来看一看: 目录 一、电脑组成 1.1.CPU 1.1.1.Intel芯片的优势:

    2024年02月10日
    浏览(61)
  • 我的第一台电脑------计算机类专业学生购置电脑的一些个人心得

      ⬜⬜⬜ 🐰🟧🟨🟩🟦🟪(*^▽^*)欢迎光临 🟧🟨🟩🟦🟪🐰⬜⬜⬜  ✏️ write in front ✏️ 📝个人主页:陈丹宇jmu 🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​ 🙉联系作者🙈by QQ:813942269🐧 🌈致亲爱的读者:很高兴你能看到我的文章,希望我的文章可以帮助到你,祝

    2024年02月09日
    浏览(95)
  • 高楼电脑端+黑金手机端个人引导页HTML源码

    https://wwwf.lanzout.com/ipAfg12n5y4f 二、黑金主题网址导航 https://wwwf.lanzout.com/ieSVB12n5y2d

    2024年02月16日
    浏览(48)
  • Stable-Diffusion部署web服务到公网,实现个人电脑远程访问

    在个人电脑上部署好了了Stable-Diffusion,用了一段时间后发现推理速度太慢。于是就想到部署服务器上使用,但这样有一个问题是每次使用web服务都得连远程桌面去控制,非常不方便,所以想能不能把Stable_Diffusion的web界面搬到公网上,直接在个人电脑上通过浏览器访问。 new

    2024年02月10日
    浏览(68)
  • windows个人电脑上用vmware作为宿主机制作qcow2镜像

    本篇为新手入门向的基础教程,详细命令可参考: libvirt命令帮助手册——筑梦之路_筑梦之路的博客-CSDN博客 准备环节: 一个VNC工具,强烈建议用mobax 一个vmware 1, 电脑上装个vmware,并且用镜像起个linux系统。建议单独给这个台机器再单独挂个50G的盘把一会起虚机用镜像放里

    2024年01月19日
    浏览(63)
  • 个人电脑windows装青龙面板,本地运行,无需服务器,本人亲测成功

    本人无服务器,但又想折腾,折腾稳定运行后,总结安装流程如下:(手机青龙面板先也已折腾好,正在试运行)https://blog.csdn.net/daodan35/article/details/125830956 温馨提示:把电脑管家、360之类的关闭了 一、先装docker   从docker 官网下载安装windows的安装包,我的是x64系统的,就下

    2024年02月11日
    浏览(73)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包