วิศวกรรมข้อความพร้อมรับ
วิศวกรรมข้อความพร้อมรับ (prompt engineering) เป็นเทคนิคที่ใช้ในการสื่อสารกับแบบจำลองภาษา เป็นกระบวนการจัดโครงสร้างข้อความสำหรับสั่งเพื่อให้แบบจำลองปัญญาประดิษฐ์แบบรู้สร้างสามารถตีความและทำความเข้าใจได้[1][2] วิศวกรรมข้อความพร้อมรับทำงานได้โดยอาศัย การเรียนรู้ในบริบท (in-context learning) ซึ่งหมายถึง"ความสามารถของแบบจำลองในการเรียนรู้ชั่วคราวจากข้อความพร้อมรับ" ถือเป็นความสามารถที่สำคัญอย่างหนึ่งของ แบบจำลองภาษาขนาดใหญ่ (LLM)[3]
ข้อความพร้อมรับ หรือ ตัวพร้อม[4] (prompt) เป็นข้อความภาษาธรรมชาติที่บรรยายสิ่งที่ต้องการให้ปัญญาประดิษฐ์ทำ[5] ข้อความพร้อมรับสำหรับการสร้างข้อความจากข้อความนั้นอาจเป็นคำถาม เช่น "ทฤษฎีบทเล็กของแฟร์มาคืออะไร"[6] ข้อความชี้นำ เช่น "จงเขียนบทกวีเกี่ยวกับใบไม้ที่ร่วงหล่น"[7] หรือบทความความคิดเห็นสั้น ๆ เช่น "เยิ่นเย้อเกินไป", "เฉพาะทางมากไป", "พูดใหม่ซะ", "ย่อคำนี้ซะ" เป็นต้น[8] หรือข้อมูลที่ป้อน วิศวกรรมข้อความพร้อมรับอาจรวมถึงการใช้ถ้อยคำในการสืบค้น การระบุรูปแบบ[7] การให้บริบทที่เกี่ยวข้อง[9] หรือการกำหนดบทบาทให้กับปัญญาประดิษฐ์ เช่น "จงทำตัวเหมือนเป็นเจ้าของภาษาฝรั่งเศส" เป็นต้น[10] วิศวกรรมข้อความพร้อมรับอาจประกอบด้วยคำสั่งเดียวพร้อมตัวอย่างจำนวนเล็กน้อยเพื่อให้แบบจำลองเรียนรู้ เช่น "maison → บ้าน, chat → แมว, chien →" (คำตอบที่คาดหวังคือ "สุนัข")[11] นี่เป็นแนวทางวิธีที่เรียกว่า การเรียนรู้แบบไม่กี่ช็อต (few-shot learn)[12]
เมื่อสื่อสารกับแบบจำลองแปลงข้อความเป็นภาพ หรือแปลงข้อความเป็นเสียงพูด ข้อความพร้อมรับแบบทั่วไปอาจเป็นข้อความอธิบายบอกสิ่งที่ต้องการให้สร้าง เช่น "ภาพถ่ายคุณภาพสูงของนักบินอวกาศบนหลังม้า" [13] หรือ "เครื่องทำความเย็นแบบไฟฟ้าจังหวะช้า Lo-Fi โดยใช้ตัวอย่างอินทรีย์"[14] เป็นต้น
ข้อความพร้อมรับสำหรับแปลงข้อความเป็นรูปภาพอาจรวมถึงการบวก ลบ เน้น และจัดเรียงคำใหม่ เพื่อที่จะแสดงรายละเอียดที่ต้องการเพิ่มเติม เช่น หัวข้อหลัก, รูปแบบ, การจัดวาง, การจัดแสง และสุนทรียศาสตร์[2][15]
จากข้อความไปเป็นรูปภาพ
[แก้]ในปี 2022 แบบจำลองแปลงข้อความเป็นภาพ เช่น DALL-E 2, สเตเบิลดิฟฟิวชัน และ มิดเจอร์นีย์ ได้รับการเผยแพร่สู่สาธารณะ[16] ตัวแบบเหล่านี้รับข้อพร้อมรับเป็นข้อความป้อนเข้า ใช้เพื่อสร้างงานศิลปะ แบบจำลองข้อความเป็นภาพ โดยทั่วไปไม่สามารถเข้าใจไวยากรณ์หรือโครงสร้างประโยค เช่นเดียวกับแบบจำลองภาษาขนาดใหญ่ และต้องใช้เทคนิคข้อความพร้อมรับที่แตกต่างกันไป[17]
อ้างอิง
[แก้]- ↑ Albert Ziegler, John Berryman. "A developer's guide to prompt engineering and LLMs - The GitHub Blog". github.blog. สืบค้นเมื่อ 2023-08-20.
- ↑ 2.0 2.1 Diab, Mohamad; Herrera, Julian; Chernow, Bob (2022-10-28). "Stable Diffusion Prompt Book" (PDF). สืบค้นเมื่อ 2023-08-07.
Prompt engineering is the process of structuring words that can be interpreted and understood by a text-to-image model. Think of it as the language you need to speak in order to tell an AI model what to draw.
- ↑ Wei, Jason; Tay, Yi (31 August 2022). "Emergent Abilities of Large Language Models". arXiv:2206.07682 [cs.CL].
- ↑ "ศัพท์บัญญัติ ๔๐ สาขาวิชา สำนักงานราชบัณฑิตยสภา".
{{cite web}}
: CS1 maint: url-status (ลิงก์) หมวดคอมพิวเตอร์และเทคโนโลยีสารสนเทศ บัญญัติไว้ว่า prompt อาจแปลเป็น "ข้อความพร้อมรับ" หรือ "ตัวพร้อม" - ↑ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya (2019). "Language Models are Unsupervised Multitask Learners" (PDF). OpenAI blog. สืบค้นเมื่อ 2023-08-20.
We demonstrate language models can perform down-stream tasks in a zero-shot setting - without any parameter or architecture modification
- ↑ OpenAI (2022-11-30). "Introducing ChatGPT". OpenAI Blog. สืบค้นเมื่อ 2023-08-16.
what is the fermat's little theorem
- ↑ 7.0 7.1 Robinson, Reid (August 3, 2023). "How to write an effective GPT-3 or GPT-4 prompt". Zapier. สืบค้นเมื่อ 2023-08-14.
"Basic prompt: 'Write a poem about leaves falling.' Better prompt: 'Write a poem in the style of Edgar Allan Poe about leaves falling.'
- ↑ Gouws-Stewart, Natasha (June 16, 2023). "The ultimate guide to prompt engineering your GPT-3.5-Turbo model". masterofcode.com. สืบค้นเมื่อ 2023-08-20.
- ↑ Greenberg, J., Laura. "How to Prime and Prompt ChatGPT for More Reliable Contract Drafting Support". contractnerds.com. สืบค้นเมื่อ 24 July 2023.
- ↑ "GPT Best Practices". OpenAI. สืบค้นเมื่อ 2023-08-16.
- ↑ Garg, Shivam; Tsipras, Dimitris. "What Can Transformers Learn In-Context? A Case Study of Simple Function Classes". arXiv:2208.01066 [cs.CL].
- ↑ Brown, Tom; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared D.; Dhariwal, Prafulla; Neelakantan, Arvind (2020). "Language models are few-shot learners". Advances in neural information processing systems. 33: 1877–1901.
- ↑ Heaven, Will Douglas (April 6, 2022). "This horse-riding astronaut is a milestone on AI's long road towards understanding". MIT Technology Review. สืบค้นเมื่อ 2023-08-14.
- ↑ Wiggers, Kyle (2023-06-12). "Meta open sources an AI-powered music generator". TechCrunch. สืบค้นเมื่อ 2023-08-15.
Next, I gave a more complicated prompt to attempt to throw MusicGen for a loop: "Lo-fi slow BPM electro chill with organic samples."
- ↑ "How to Write AI Photoshoot Prompts: A Guide for Better Product Photos". claid.ai. June 12, 2023. สืบค้นเมื่อ June 12, 2023.
- ↑ Monge, Jim Clyde (2022-08-25). "Dall-E2 VS Stable Diffusion: Same Prompt, Different Results". MLearning.ai (ภาษาอังกฤษ). สืบค้นเมื่อ 2022-08-31.
- ↑ "Prompts". สืบค้นเมื่อ 2023-08-14.