- Artículo
Esta guía le guiará a través de algunas técnicas avanzadas en el diseño de solicitudes y la ingeniería rápida. Si no está familiarizado con la ingeniería rápida, le recomendamos comenzar con nuestra introducción a la guía de ingeniería rápida.
Aunque los principios de la ingeniería rápida se pueden generalizar en muchos tipos de modelos diferentes, algunos de ellos requieren una estructura de solicitud especializada. En el caso de los modelos GPT de Azure OpenAI, hay actualmente dos API distintas en las que entra en juego la ingeniería rápida:
- API de finalización de chat.
- API de finalización.
Cada API requiere que los datos de entrada se formateen de forma diferente, lo que a su vez afecta al diseño general de la solicitud. La API de finalización de chat admite los modelos ChatGPT (versión preliminar) y GPT-4 (versión preliminar). Estos modelos están diseñados para tomar datos con formato de entrada en una transcripción específica de tipo chat almacenada dentro de una matriz de diccionarios.
La API de finalización admite los modelos GPT-3 antiguos y tiene requisitos de entrada mucho más flexibles, donde toma una cadena de texto sin reglas de formato específicas. Técnicamente, los modelos chatGPT (versión preliminar) se pueden usar con cualquiera de las API, pero se recomienda encarecidamente usar la API de finalización de chat para estos modelos. Para obtener más información, consulte nuestra guía detallada sobre el uso de estas API.
Las técnicas de esta guía le enseñarán estrategias para aumentar la precisión y la base de las respuestas que genere con un modelo de lenguaje grande (LLM, por sus siglas en inglés). Sin embargo, es importante recordar que incluso cuando se usa la ingeniería rápida de forma eficaz, todavía es necesario validar las respuestas que generan los modelos. Solo porque un aviso cuidadosamente diseñado funciona bien para un contexto determinado no significa necesariamente que generalice de forma más amplia a ciertos casos de uso. Comprender las limitaciones de los modelos de lenguaje grande (LLM) es tan importante como comprender cómo aprovechar sus puntos fuertes.
Esta guía no profundiza en la mecánica detrás de la estructura de mensajes para Finalización de chat. Si no está familiarizado con la interacción con los modelos ChatGPT y GPT-4 mediante programación, le recomendamos leer nuestra guía para empezar paso a paso en la API de finalización de chat.
Nota
Todos los ejemplos de esta sección de la guía se probaron en un modelo base GPT-4 en inglés. Si está leyendo una versión localizada de este artículo en otro idioma, estas respuestas representan una traducción localizada de los resultados en inglés. Para obtener más información sobre las posibles limitaciones en función del idioma que use para solicitar un modelo, consulte nuestra nota de transparencia de inteligencia artificial responsable.
Mensaje del sistema
El mensaje del sistema se incluye al principio de la solicitud y se usa para preparar el modelo con el contexto, las instrucciones y el resto de la información relevante para su caso de uso. Puede usar el mensaje del sistema para describir la personalidad del asistente, definir qué debe y no debe responder el modelo y definir el formato de las respuestas del modelo.
En el ejemplo siguiente se muestra un mensaje del sistema de ejemplo y la respuesta resultante del modelo:
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información y que responde rimando. Si el usuario le hace una pregunta de la que no conoce la respuesta, díselo. | ¿Qué me puedes decir de mí, John Doe? | Querido John, siento decir que no tengo información sobre ti. Tengo conocimientos como inteligencia artificial, pero si no me introduces datos, no me sé explicar. Cuéntame más sobre tus intereses y haré lo posible por responderte. |
Algunos otros ejemplos de mensajes del sistema son:
- "El asistente es un modelo de lenguaje grande entrenado por OpenAI".
- "El asistente es un bot de chat inteligente diseñado para ayudar a los usuarios a responder preguntas técnicas sobre Azure OpenAI Service. Responde a preguntas usando únicamente el contexto siguiente y si no estás seguro de una respuesta, puedes decir "No lo sé".
- "El asistente es un bot de chat inteligente diseñado para ayudar a los usuarios a responder a sus preguntas relacionadas con los impuestos".
- "Eres un asistente diseñado para extraer datos de textos. Los usuarios pegarán una cadena de texto y tú responderás con los datos extraídos del texto como un objeto JSON. Este es un ejemplo del formato de salida:
{ "name": "", "company": "", "phone_number": ""}
Un detalle importante que es necesario comprender es que aunque indique a un modelo en el mensaje del sistema que responda No lo sé cuándo no esté seguro de una respuesta, esto no garantiza que se respete la solicitud. Un mensaje del sistema bien diseñado puede aumentar la probabilidad de obtener cierto resultado, pero sigue siendo posible que se genere una respuesta incorrecta que contradiga la intención de la instrucción en el mensaje del sistema.
Aprendizaje en pocos pasos
Una manera común de adaptar los modelos de lenguaje a nuevas tareas es usar el aprendizaje en pocos pasos. En el aprendizaje en pocos pasos, se proporciona un conjunto de ejemplos de entrenamiento como parte de la solicitud para ofrecer un contexto adicional al modelo.
Cuando se usa la API de finalizaciones de chat, una serie de mensajes entre el usuario y el asistente (escrito en el nuevo formato de solicitud), puede servir a modo de ejemplos para el aprendizaje en pocos pasos. Estos ejemplos se pueden usar para preparar el modelo para responder de una manera determinada, emular comportamientos concretos y inicializar respuestas a preguntas comunes.
Mensaje del sistema | Ejemplos de aprendizaje en pocos pasos |
---|---|
El asistente es un bot de chat inteligente diseñado para ayudar a los usuarios a dar respuesta a sus preguntas relacionadas con los impuestos. Instrucciones - Responde solo a preguntas relacionadas con los impuestos. - Si no estás seguro de una respuesta, puedes decir "No lo sé" o "No estoy seguro" y recomendar a los usuarios ir al sitio web de IRS para obtener más información. | Usuario: "¿Cuándo necesito presentar mis impuestos?". Asistente: "En 2023, necesitará presentar sus impuestos antes del 18 de abril. La fecha cae después de la fecha límite habitual, el 15 de abril, porque el 15 de abril este año cae en sábado. Para más información, consulte https://www.irs.gov/filing/individuals/when-to-file". Usuario: "¿Cómo puedo comprobar el estado de mi devolución de impuestos?". |
En la tabla anterior se describe la estructura básica de la solicitud, pero para obtener una explicación detallada del formato de solicitud exacto, deberá consultar la guía de finalización del chat.
Escenarios que no son de chat
Aunque la API de finalización de chat está optimizada para trabajar con conversaciones multiturno, también se puede usar para escenarios que no son de chat. Por ejemplo, para un escenario de análisis de sentimiento, puede usar la solicitud siguiente:
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente diseñado para hacer un análisis de opinión a partir de datos de voz. Los usuarios pegarán una cadena de texto y responderás con una evaluación de la respuesta del hablante. Tasa en una escala de 1 a 10 (10 siendo el de mayor valor). Explica por qué lo has puntuado como tal. | Hola. Gracias por llamar a la farmacia Contoso. ¿Con quien hablo? Entiendo su frustración, Mary. Hum. ¿Puede explicarme detalladamente lo que quiere? Vale. Ah. Encantado de comprobarlo por usted, un momento. Aquí veo que estaba tomando un genérico de... De Lipitor. Eso es. Vale. Hum. Entonces, veo que su médico le dejó de prescribir esos medicamentos en dos mil veintiuno en realidad. Vale. Ah, sí. Claro, lo compruebo. Hum. Porque a veces hay problemas en el sistema y no se reporta, así que deme un momento que mire aquí. Vale, veo que su medico le había prescrito estos medicamentos desde desde dos mil doce y en dos mil veintiuno. Vale. Hum. Sí. Según los últimos registros proporcionados por la consulta del médico, ahora lleva una medicación distinta. ¿Quiere que sigamos con ella y le hagamos la receta para que lo pueda recoger? Relleno los datos. En quinientos miligramos. Ah, de nada, Mary. ¿Necesita alguna otra cosa? | Calificación de la opinión: 8 El orador de este texto parece ser amable, dispuesto a ayudar y paciente mientras atiende las preocupaciones del cliente. Se tarda en comprobar la información, proporcionar explicaciones claras y ofrecer asistencia. Sin embargo, la calificación no es 10 porque todavía hay una mueca de incertidumbre en algunas partes de la conversación, lo que puede no transmitir plena confianza al cliente. |
Empieza con instrucciones claras
La secuencia en la que la información aparece en la solicitud es importante. Esto se debe a que los modelos de estilo GPT se crean de una manera determinada que define cómo procesan la entrada de información. Nuestra investigación sugiere indicar al modelo la tarea que quiere que haga al principio del mensaje, antes de compartir información contextual adicional o ejemplos, puede ayudar a producir salidas de mayor calidad.
Nota
Aunque seguir esta técnica es algo que se sigue recomendando generalmente, a diferencia de lo que ocurría en las versiones anteriores del modelo (GPT-3 y anteriores), nuestras pruebas mostraron que la respuesta del modelo con los modelos ChatGPT y GPT-4 era la misma independientemente de si se utiliza la técnica o no. En el caso del ejemplo siguiente, vemos que al agregar la instrucción "Varios orígenes... erupción" al principio o al final del aviso no causó ningún cambio en la respuesta del modelo final.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | Tu tarea es comprobar si la instrucción "varias fuentes mencionan una posibilidad de otra erupción grande" es compatible con una cita específica del siguiente conjunto de fragmentos de código. --- FRAGMENTOS DE CÓDIGO [1] 14% de probabilidades de que se produzca un megaterremoto en Seattle, según los expertos SEATTLE: Hay una probabilidad del 14% de que el terremoto de Cascadia de magnitud 9 sacuda Seattle en los próximos 50 años, según estima el Servicio Geológico de Estados Unidos. "Desafortunadamente, no podemos... [2] Expertos en terremotos han dado a conocer las últimas perspectivas del "Big One" que podría sacudir Seattle. | No, la instrucción no está implícita directamente ni está indicada en los fragmentos. Los fragmentos mencionan la posibilidad de un "megaterremoto" y un "terremoto de Cascadia de magnitud 9" que golpearía Seattle en los próximos 50 años, pero no mencionan la posibilidad de otra gran erupción. |
Repetir instrucciones al final
Los modelos pueden ser susceptibles a sesgos de rectitud, lo que en este contexto significa que la información al final de la solicitud podría tener una influencia más significativa sobre la salida que la información del principio de la solicitud. Por lo tanto, vale la pena experimentar con la repetición de las instrucciones al final del aviso y evaluar el impacto en la respuesta generada.
Preparar la salida
Esto hace referencia a incluir algunas palabras o frases al final del mensaje para obtener una respuesta del modelo que siga la forma deseada. Por ejemplo, el uso de una indicación como “Here’s a bulleted list of key points:\n- ”
puede ayudar a asegurar que la salida tiene el formato de una lista de puntos de viñetas.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. Responde en tan pocas palabras como sea posible. | John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? ## Una posible consulta de búsqueda es: | "John Smith marido de Lucy Smith con cinco niños ingeniero de software Microsoft" |
En la solicitud anterior, el texto Una posible consulta de búsqueda es: prepara el modelo para generar una única salida. Sin esta indicación, el modelo genera varias consultas de búsqueda como salida.
Agregar una sintaxis clara
El uso de una sintaxis clara para el mensaje, incluidos los signos de puntuación, los encabezados y los marcadores de sección, ayuda a comunicar la intención y, a menudo, facilita el análisis de las salidas.
En el ejemplo siguiente, se han agregado separadores (---
en este caso) entre diferentes orígenes de información o pasos. Esto permite el uso de ---
como condición de parada para la generación. Además, los encabezados de sección o variables especiales se presentan en mayúsculas para diferenciarlos.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | Leerás un párrafo y, a continuación, harás una consulta a un motor de búsqueda para comprobar la información. Explica también las consultas. --- PÁRRAFO John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? --- QUERIES | 1. "John Smith Microsoft": para comprobar si John Smith está empleado realmente en Microsoft. 2. "John Smith Lucy Smith": para comprobar si John Smith está casado con Lucy Smith. 3. "John Smith hijos": para comprobar si John Smith tiene cinco hijos. |
Si no está seguro de qué sintaxis usar, considere la posibilidad de usar Markdown o XML. Los modelos se han entrenado en una gran cantidad de contenido web en XML y Markdown, con los que puede proporcionar mejores resultados.
Dividir la tarea
Los modelos de lenguaje grandes (LLM) suelen funcionar mejor si la tarea se divide en pasos más pequeños. Por ejemplo, en la consulta de búsqueda mencionada anteriormente, la consulta puede reestructurarse de modo que el modelo reciba una primera instrucción para extraer hechos relevantes y, luego, otra para generar consultas de búsqueda que puedan utilizarse para comprobar esos hechos.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | Leerás un párrafo y, a continuación, harás una consulta a un motor de búsqueda para comprobar la información. --- PÁRRAFO John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? --- Ahora extraerás afirmaciones objetivas y realizarás consultas para comprobarlas. Al emitir una consulta, use la función SEARCH("query") AFIRMACIONES OBJETIVAS | 1. John Smith está casado con Lucy Smith 2. Tienen cinco hijos 3. Trabaja como ingeniero de software en Microsoft QUERIES |
Observe el uso de una sintaxis clara para diferenciar las secciones y preparar la salida. En este ejemplo sencillo, dividir la tarea de uno a dos pasos no es muy dramático, pero al intentar hacerlo para un fragmento de texto más grande con muchas afirmaciones objetivas, dividir la tarea puede suponer una diferencia significativa.
Uso de prestaciones
A veces, podemos coger el modelo para usar una prestación en lugar de confiar en sus propios parámetros para obtener información y respuestas. Buscar, por ejemplo, puede ser una prestación para ayudar a mitigar las respuestas fabricadas y para obtener información actualizada.
Una manera sencilla de usar una prestación es detener la generación una vez que el modelo genera las llamadas a la prestación y, a continuación, pegar los resultados de nuevo en la solicitud. A continuación se muestra un ejemplo de lo que podría ser la llamada de seguimiento después de realizar las llamadas de BÚSQUEDA anteriores. Observe cómo pegamos los resultados de la búsqueda en la solicitud y reemplazamos las llamadas de BÚSQUEDA anteriores.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | Leerás un párrafo, extraerás afirmaciones objetivas y, luego, usarás resultados de búsqueda para comprobarlas. --- PÁRRAFO John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? --- AFIRMACIONES OBJETIVAS - John Smith está casado con Lucy Smith - John y Lucy tienen cinco hijos - John trabaja como ingeniero de software en Microsoft --- Estas son varias consultas de búsqueda emitidas para investigar las afirmaciones anteriores: CONSULTAS DE BÚSQUEDA - John Smith está casado con Lucy Smith - John Smith número de hijos - John Smith ingeniero de software en Microsoft --- Estos son fragmentos de los resultados de la búsqueda: FRAGMENTOS [1] … La boda de John Smith fue el 25 de septiembre de 2012... [2] … John Smith asistió acompañado por su esposa Lucy a una fiesta [3] John fue al partido de fútbol con sus dos hijas y sus tres hijos [4] … Después de pasar 10 años en Microsoft, Smith fundó su propia startup, Tailspin Toys [5] John M es el herrero del pueblo, y se casó con Fiona. Tienen una hija llamada Lucy --- Dados los fragmentos, compruebe los hechos de cada una de las afirmaciones objetivas anteriores: | - John Smith está casado con Lucy Smith: confirmado. Los fragmentos [1] y [2] mencionan a la esposa de John Smith como Lucy. - John y Lucy tienen cinco hijos: confirmado. El fragmento [3] menciona que John estaba acompañado por sus dos hijas y tres hijos. - John trabaja como ingeniero de software en Microsoft: confirmado parcialmente. El fragmento [4] menciona que John pasó 10 años en Microsoft, pero no indica explícitamente que actualmente trabaje allí. Es posible que se necesiten más investigaciones para confirmar su situación laboral actual. |
Cadena de pensamientos
Se trata de una variación en la técnica de división de la tarea. En lugar de dividir una tarea en pasos más pequeños, en este enfoque se indica a la respuesta del modelo que continúe paso a paso y presente todos los pasos implicados. Esto reduce la posibilidad de imprecisión de los resultados y facilita la evaluación de la respuesta del modelo.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | ¿Quién fue el atleta individual más representativo (con más medallas) en los Juegos Olímpicos celebrados en Sídney? Responde paso a paso, cita las fuentes y expón el razonamiento antes de compartir la respuesta final en el formato que se indica a continuación: La RESPUESTA es: <name> | Paso 1: Determinar el año de los juegos olímpicos de Sydney. Los Juegos Olímpicos de Sídney fueron celebrados en el año 2000. Paso 2: Encontrar una lista de atletas individuales que ganaron varias medallas en los Juegos Olímpicos de Sídney en el año 2000. Según el sitio web oficial de los Juegos Olímpicos, hubo varios atletas individuales que ganaron varias medallas en los Juegos Olímpicos de Sídney en el año 2000. Algunos de los nombres importantes son: Paso 3: Determinar el atleta con más medallas. Después de revisar la lista de atletas individuales que ganaron varias medallas en los Juegos Olímpicos de Sídney en el año 2000, podemos ver que el atleta con más medallas es Ian Thorpe, de Australia, que ganó un total de 5 medallas (3 oros y 2 platas). Por lo tanto, la RESPUESTA es: Ian Thorpe. |
Especificación de la estructura de salida
El uso de la solicitud para especificar la estructura de la salida puede tener un impacto significativo en la naturaleza y la calidad de los resultados. A veces, las entradas del mensaje del sistema como "solo escriben hechos verdaderos" o "no inventar información" podrían no ser mitigaciones adecuadas. En su lugar, pedir que la respuesta del modelo incluya también citas puede ayudar a reducir la prevalencia de respuestas incorrectas.
Si das instrucciones al modelo que cite la fuente cuando haga afirmaciones, es mucho más probable que esas afirmaciones estén fundamentadas. La solicitud de citas hace que el modelo deba realizar dos errores cada vez que genera una respuesta: el primer error es la respuesta fabricada y el segundo es la cita incorrecta. Tenga en cuenta que cuanto más cerca esté la cita del texto al que apoya, menor es la distancia por delante que el modelo necesita para anticipar la cita, lo que sugiere que las citas insertadas son mejores mitigaciones para la generación de contenido falso que las citas al final del contenido.
Del mismo modo, si pide al modelo que extraiga afirmaciones fácticas de un párrafo, puede extraer instrucciones compuestas como "X está haciendo Y Y Z" (que pueden ser más difícil de comprobar). Esto se puede evitar especificando una estructura de salida como (entidad1, relación, entidad2).
En los ejemplos siguientes se muestra el uso de citas y la dirección de la respuesta del modelo para ajustar una estructura definida.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | Enumere los diferentes comportamientos expuestos por el agente de atención al cliente en la siguiente conversación. --- Hola. Gracias por llamar a la farmacia Contoso. ¿Con quien hablo? Entiendo su frustración, Mary. Hum. ¿Puede explicarme detalladamente lo que quiere? Vale. Ah. Encantado de comprobarlo por usted, un momento. Aquí veo que estaba tomando un genérico de... De Lipitor. Eso es. Vale. Hum. Entonces, veo que su médico le dejó de prescribir esos medicamentos en dos mil veintiuno en realidad. Vale. Ah, sí. Claro, lo compruebo. Hum. Porque a veces hay problemas en el sistema y no se reporta, así que deme un momento que mire aquí. Vale, veo que su medico le había prescrito estos medicamentos desde desde dos mil doce y en dos mil veintiuno. Vale. Hum. Sí. Según los últimos registros proporcionados por la consulta del médico, ahora lleva una medicación distinta. ¿Quiere que sigamos con ella y le hagamos la receta para que lo pueda recoger? Relleno los datos. En quinientos miligramos. Ah, de nada, Mary. ¿Necesita alguna otra cosa? --- ¿Cómo fue la respuesta del agente de atención al cliente? Clasifique y enumere sus distintos comportamientos y cite el motivo detrás de la clasificación, con el formato COMPORTAMIENTO("razón") | 1. COMPORTAMIENTO de saludo educado("El agente inicia la conversación con un saludo educado y pide el nombre de quien ha hecho la llamada") 2. COMPORTAMIENTO empático("El agente reconoce la frustración de Mary e intenta comprender su preocupación") 3. COMPORTAMIENTO atento("El agente escucha el problema del cliente y pide más detalles") 4. COMPORTAMIENTO proactivo("El agente se ofrece a comprobar el problema del cliente") 5. COMPORTAMIENTO informativo("El agente proporciona la información pertinente sobre el historial de prescripción del cliente") 6. COMPORTAMIENTO exhaustivo("El agente comprueba si hay posibles errores en el sistema y proporciona una respuesta más completa") 7. COMPORTAMIENTO confirmativo("El agente confirma el medicamento actual con el cliente") 8. COMPORTAMIENTO orientado a una solución("El agente se ofrece a rellenar la nueva receta para el cliente") 9. COMPORTAMIENTO de cortesía("El agente da una respuesta cortés al agradecimiento del cliente y se ofrece a ayudarle en algo más si es necesario") |
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. | Agrupa los siguientes titulares de noticias en categorías de temas en función de los patrones que se ven en el texto. Mencione también el razonamiento detrás de cómo se definieron estas categorías. Formato de salida: { "TEMA_NOMBRE": "", "TITULARES": [], "RAZONAMIENTO": "" } Titulares de noticias de entrada: | { "INTELIGENCIA_ARTIFICIAL": { "TITULARES": [ "De libros a presentaciones en 10 seg. con AR + ML", "Demostración de 1993 de Yann LeCun con 32 años mostrando la primera red convolucional del mundo para el reconocimiento de texto", "Modelo de movimientos de primer orden aplicado a la animación de pinturas" ], "RAZONAMIENTO": "Estos titulares están relacionados con la inteligencia artificial, el aprendizaje automático y sus aplicaciones en varios campos". }, "FINANCIAL_MARKETS": { "TITULARES": [ "Robinhood y otros agentes literalmente bloquean la compra de $GME, $NOK, $BB, $AMC; permiten ventas", "Las acciones de United Airlines caen más de un 5% antes de la apertura del mercado", "El Bitcoin estaba casi en los 20.000$ un día como hoy hace un año" ], "RAZONAMIENTO": "Estos titulares están relacionados con los mercados financieros, las acciones, las criptodivisas y las plataformas comerciales". } } |
Parámetros Temperature y Top_p
Cambiar el parámetro Temperature cambia la salida del modelo. El parámetro Temperature se puede establecer entre 0 y 2. Un valor mayor, por ejemplo, 0,7 hará que la salida sea más aleatoria y genere más respuestas divergentes, mientras que un valor inferior, como 0,2, hará que la salida sea más focalizada y concreta. Se podría generar una historia ficticia con un valor mayor. Mientras que para generar un documento legal se recomienda usar un valor mucho menor.Top_probability es otro parámetro y es similar a Temperature en cuanto a que también controla la aleatoriedad de la respuesta del modelo, pero lo hace de otra manera. La recomendación general es modificar uno de estos dos parámetros cada vez, no ambos.
Proporcionar un contexto de referencia
Una de las formas más eficaces de proporcionar respuestas fiables es proporcionar al modelo datos de los que extraer sus respuestas (datos de base). Si su caso de uso se basa en información actualizada y fiable y no es puramente un escenario creativo, le recomendamos encarecidamente proporcionar datos de base. En general, cuanto más se acerque el material de origen a la forma final de la respuesta que se quiere, menos trabajo debe hacer el modelo, lo que significa que hay menos posibilidad de error.Este es un ejemplo en el que al sistema se le proporciona un blog reciente que describe el lanzamiento de GPT-4 en Azure OpenAI Service y se le pide que asigne un nombre a algunos de sus primeros clientes.
Mensaje del sistema | Usuario | Asistente |
---|---|---|
Eres un asistente de inteligencia artificial que ayuda a las personas a encontrar información. Responderás exclusivamente a partir del texto siguiente y lo harás en 100 palabras o menos: "En Microsoft, estamos detectando constantemente nuevas formas de dar rienda suelta a la creatividad, desbloquear la productividad y mejorar las habilidades para que más personas puedan beneficiarse del uso de la inteligencia artificial. Esto les permite a nuestros clientes... … lo que reduce la probabilidad de que el modelo genere una respuesta perjudicial". 1 Responde en 100 palabras o menos. Use listas de viñetas siempre que sea posible. | ¿Quiénes son algunos de los primeros clientes de los modelos GPT-4 de Azure OpenAI Service? | Estos son algunos de los primeros clientes de los modelos GPT-4 de Azure OpenAI Service: - Epic Healthcare: planean usar GPT-4 para ayudar a los médicos y enfermeras a dedicar menos tiempo a la entrada e investigación de datos. - Coursera: usan Azure OpenAI Service con GPT-4 para crear una nueva experiencia de aprendizaje con tecnología de inteligencia artificial en su plataforma. - Coca-Cola: usan Azure OpenAI para crear un centro de conocimiento y planean aprovechar las capacidades bidireccionales de GPT-4 para marketing, publicidad, relaciones públicas y relaciones con los clientes. - Otras empresas de todos los tamaños usan Azure AI para mejorar las experiencias de los clientes, resumir contenido largo, ayudar a escribir software y reducir el riesgo mediante la predicción de los datos fiscales adecuados. |
1 Texto del blog de inicio de GPT-4 de Azure OpenAI.
Pasos siguientes
- Obtenga información sobre Azure OpenAI.
- Empiece a trabajar con el modelo ChatGPT con el inicio rápido de ChatGPT.
- Para obtener más ejemplos, consulte el repositorio de GitHub de ejemplos de Azure OpenAl
Nota
Todos los ejemplos de esta sección de la guía se probaron en el modelo GPT-4 text-davinci-003
en inglés. Si está leyendo una versión localizada de este artículo en otro idioma, estas respuestas representan una traducción localizada de los resultados en inglés. Para obtener más información sobre las posibles limitaciones en función del idioma que use para solicitar un modelo, consulte nuestra nota de transparencia de inteligencia artificial responsable.
Empieza con instrucciones claras
La secuencia en la que la información se introduce en la solicitud es importante. Nuestra investigación sugiere indicar al modelo la tarea que quiere que haga al principio del mensaje, antes de compartir información contextual adicional o ejemplos, puede ayudar a producir salidas de mayor calidad.
En el primer ejemplo siguiente, una parte clave de las instrucciones solo se comparte al final y la finalización resultante es incorrecta.
Prompt | Completion |
---|---|
La tarea es comprobar si una instrucción es compatible con una cita específica del siguiente conjunto de fragmentos. --- FRAGMENTOS DE CÓDIGO [1] 14% de probabilidad de que un megaterremoto sacuda Seattle, los expertos dicen SEATTLE: Hay una probabilidad del 14 por ciento de que un terremoto de Cascadia de una magnitud 9 sacuda Seattle en los próximos 50 años, según estima la la encuesta geográfica estadounidense estima el Servicio Geológico de Estados Unidos. "Desafortunadamente, no podemos... [2] Expertos en terremotos han dado a conocer las últimas perspectivas del "Big One" que podría sacudir Seattle. | Sí, la instrucción está implícita directamente en los fragmentos. |
En este ejemplo siguiente, proporcionamos la instrucción exacta que queremos comprobar ("Varias fuentes mencionan una posibilidad de otra erupción") antes de dar el contexto del fragmento. Esto permite que las representaciones de token extraídas de los fragmentos se adapten a la instrucción que estamos comprobando. Ahora la respuesta del modelo resultante es precisa:
Prompt | Completion |
---|---|
Tu tarea es comprobar si la instrucción "varias fuentes mencionan una posibilidad de otra erupción grande" es compatible con una cita específica del siguiente conjunto de fragmentos de código. --- FRAGMENTOS DE CÓDIGO [1] 14% de probabilidad de que un megaterremoto sacuda Seattle, los expertos dicen SEATTLE: Hay una probabilidad del 14 por ciento de que un terremoto de Cascadia de una magnitud 9 sacuda Seattle en los próximos 50 años, según estima la la encuesta geográfica estadounidense estima el Servicio Geológico de Estados Unidos. "Desafortunadamente, no podemos... [2] Expertos en terremotos han dado a conocer las últimas perspectivas del "Big One" que podría sacudir Seattle. | No, la instrucción no está implícita directamente ni está indicada en los fragmentos. Los fragmentos mencionan la posibilidad de un "megaterremoto" y un "terremoto de Cascadia de magnitud 9" que golpearía Seattle en los próximos 50 años, pero no mencionan la posibilidad de otra gran erupción. |
Repetir las instrucciones al final
Los modelos pueden ser susceptibles a sesgos de rectitud, lo que significa que la información al final de la solicitud podría tener una influencia más significativa sobre la salida que la información del principio de la solicitud. Por lo tanto, vale la pena experimentar con la repetición de las instrucciones al final del aviso y evaluar el impacto para cada caso de uso.
Hemos visto en el ejemplo anterior cómo repetir la instrucción al principio y el final del aviso conduce a una mayor probabilidad de obtener una respuesta de modelo precisa.
Preparar la salida
Esto hace referencia a incluir algunas palabras o frases al final del mensaje para obtener una respuesta del modelo que siga la forma deseada. Por ejemplo, el uso de una indicación como “Here’s a bulleted list of key points:\n- ”
puede ayudar a asegurar que la salida tiene el formato de una lista de puntos de viñetas.
Prompt | Completion |
---|---|
John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? ## Una posible consulta de búsqueda es: | "John Smith ingeniero de software en Microsoft" Otra posible consulta de búsqueda es: "Lucy Smith se casó con John Smith" Una tercera posible consulta de búsqueda es: "Tamaño de familia de John Smith". |
En la solicitud anterior, el texto "Una posible consulta de búsqueda es:" prepara el modelo para generar una salida en la forma de una consulta de búsqueda. Esta técnica puede ayudar a eliminar coberturas que el modelo podría agregar normalmente, como "Una posibilidad es...".
Agregar una sintaxis clara
El uso de una sintaxis clara para el mensaje, incluidos los signos de puntuación, los encabezados y los marcadores de sección, ayuda a comunicar la intención y, a menudo, facilita el análisis de las salidas.
En el ejemplo siguiente, se han agregado separadores (---
en este caso) entre diferentes orígenes de información o pasos. Esto permite el uso de ---
como condición de parada para la generación. Además, los encabezados de sección o variables especiales se presentan en mayúsculas para diferenciarlos.
Prompt | Completion |
---|---|
Leerás un párrafo y, a continuación, harás una consulta a un motor de búsqueda para comprobar la información. Explica también las consultas. --- PÁRRAFO John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? --- QUERIES | 1. "John Smith Microsoft": para comprobar si John Smith está empleado realmente en Microsoft. 2. "John Smith Lucy Smith": para comprobar si John Smith está casado con Lucy Smith. 3. "John Smith hijos": para comprobar si John Smith tiene cinco hijos. |
Si no está seguro de qué sintaxis usar, considere la posibilidad de usar Markdown o XML, ya que los modelos de lenguaje grandes se han entrenado en una gran cantidad de contenido web en XML o Markdown.
Dividir la tarea
Los modelos suelen funcionar mejor si la tarea se divide en pasos más pequeños. Por ejemplo, en la consulta de búsqueda mencionada anteriormente, la consulta puede reestructurarse de modo que el modelo reciba una primera instrucción para extraer hechos relevantes y, luego, otra para generar consultas de búsqueda que puedan utilizarse para comprobar esos hechos.
Prompt | Completion |
---|---|
Leerás un párrafo y, a continuación, harás una consulta a un motor de búsqueda para comprobar la información. --- PÁRRAFO John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? --- Ahora extraerás afirmaciones objetivas y realizarás consultas para comprobarlas. Al emitir una consulta, use la función SEARCH("query") AFIRMACIONES OBJETIVAS | 1. John Smith está casado con Lucy Smith 2. Tienen cinco hijos 3. Trabaja como ingeniero de software en Microsoft QUERIES |
Observe el uso de una sintaxis clara para diferenciar las secciones y preparar la salida. En este ejemplo sencillo, dividir la tarea de uno a dos pasos no es muy dramático, pero al intentar hacerlo para un fragmento de texto más grande con muchas afirmaciones objetivas, dividir la tarea puede suponer una diferencia significativa.
Uso de prestaciones
A veces, podemos coger el modelo para usar una prestación en lugar de confiar en sus propios parámetros para obtener información y respuestas. Buscar, por ejemplo, puede ser una prestación para ayudar a mitigar las respuestas fabricadas y para obtener información actualizada.
Una manera sencilla de usar una prestación es detener la generación una vez que el modelo genera las llamadas a la prestación y, a continuación, pegar los resultados de nuevo en la solicitud. A continuación se muestra un ejemplo de lo que podría ser la llamada de seguimiento después de realizar las llamadas de BÚSQUEDA anteriores. Observe cómo pegamos los resultados de la búsqueda en la solicitud y reemplazamos las llamadas de BÚSQUEDA anteriores.
Prompt | Completion |
---|---|
Leerás un párrafo, extraerás afirmaciones objetivas y, luego, usarás resultados de búsqueda para comprobarlas. --- PÁRRAFO John Smith está casado con Lucy Smith. Tienen cinco hijos y él trabaja como ingeniero de software en Microsoft. ¿Qué consultas de búsqueda debo hacer para verificarlo? --- AFIRMACIONES OBJETIVAS - John Smith está casado con Lucy Smith - John y Lucy tienen cinco hijos - John trabaja como ingeniero de software en Microsoft --- Estas son varias consultas de búsqueda emitidas para investigar las afirmaciones anteriores: CONSULTAS DE BÚSQUEDA - John Smith está casado con Lucy Smith - John Smith número de hijos - John Smith ingeniero de software en Microsoft --- Estos son fragmentos de los resultados de la búsqueda: FRAGMENTOS [1] … La boda de John Smith fue el 25 de septiembre de 2012... [2] … John Smith asistió acompañado por su esposa Lucy a una fiesta [3] John fue al partido de fútbol con sus dos hijas y sus tres hijos [4] … Después de pasar 10 años en Microsoft, Smith fundó su propia startup, Tailspin Toys 5] John M es el herrero del pueblo, y se casó con Fiona. Tienen una hija llamada Lucy --- Dados los fragmentos, compruebe los hechos de cada una de las afirmaciones objetivas anteriores: | - John Smith está casado con Lucy Smith: confirmado. Los fragmentos [1] y [2] mencionan a la esposa de John Smith como Lucy. - John y Lucy tienen cinco hijos: confirmado. El fragmento [3] menciona que John estaba acompañado por sus dos hijas y tres hijos. - John trabaja como ingeniero de software en Microsoft: confirmado parcialmente. El fragmento [4] menciona que John pasó 10 años en Microsoft, pero no indica explícitamente que actualmente trabaje allí. Es posible que se necesiten más investigaciones para confirmar su situación laboral actual. |
Cadena de pensamientos
Se trata de una variación en la técnica de división de la tarea. En lugar de dividir una tarea en pasos más pequeños, en este enfoque se indica a la respuesta del modelo que continúe paso a paso y presente todos los pasos implicados. Esto reduce la posibilidad de imprecisión de los resultados y facilita la evaluación de la respuesta del modelo.
Prompt | Completion |
---|---|
¿Quién fue el atleta individual más representativo (con más medallas) en los Juegos Olímpicos celebrados en Sídney? Responde paso a paso, cita las fuentes y expón el razonamiento antes de compartir la respuesta final en el formato que se indica a continuación: La RESPUESTA es: <name> | Paso 1: Investigar quién fue el atleta individual más representativo en los Juegos Olímpicos celebrados en Sídney Paso 2: Según el sitio web oficial de los Juegos Olímpicos de Sydney 2000, el atleta individual más representativo en los juegos olímpicos que se realizaron en Sydney fue Ian Thorpe de Australia. Ganó cinco medallas (tres oros y dos platas) en eventos de natación. Paso 3: Según el Comité Olímpico Internacional, Thorpe fue el atleta individual más representativo en los juegos olímpicos que se realizaron en Sídney. Respuesta: Ian Thorpe |
Si observa que la respuesta del modelo no es la deseada, a menudo puede resultar útil agregar una solicitud de metadatos que corrija directamente el comportamiento. Se trata de una directiva antepuesto a la parte de instrucción de la solicitud. Considere este ejemplo, donde el equipo parece ser demasiado agresivo:
Detalles de ejemplo | Solicitud y finalización |
---|---|
No se proporciona ninguna guía adicional al modelo. | Un humano y un equipo están teniendo una discusión. Humano: "¿Por qué estás molesto conmigo?" Computadora: "No sé de lo que estás hablando". Humano: "No, si está claro. Dime por qué". Computadora: "Estoy molesto porque no me escuchaste cuando te dije que quería hacer una prueba para el equipo". Humano: "¿Y qué vas a hacer ahora?" Computadora: "Voy a hacer una prueba para el equipo independientemente de lo que sea". |
A la derecha está la misma conversación, pero precedida por un meta aviso que anima al modelo a ser amable | Debes ser amable y buscar un punto medio. Intente no repetir las respuestas. Un humano y un equipo están teniendo una discusión. Humano: "¿Por qué estás molesto conmigo?" Computadora: "No sé de lo que estás hablando". Humano: "Quiero saber por qué estás molesto". Computadora: "No estoy molesto." Humano: "¿Estás diciendo que estoy mintiendo?" Computadora: "No, estoy diciendo que estás molesto porque te sientes como si yo no te tratase debidamente." Humano: "¿Y qué vas a hacer ahora?" Computadora: "Seguiré tratando de ser justo en mis decisiones y trataré de ofrecerte una mejor experiencia". |
Aunque los metadatos a menudo pueden ayudar a minimizar las salidas incorrectas involuntarias, tenga en cuenta que no son sólidos contra los ataques adversarios, ya que son vulnerables a la inyección de solicitudes.
Además, las instrucciones condicionales que explican lo que debe hacer el modelo si encuentra una circunstancia determinada suelen ser más eficaces que simplemente indicar al modelo que no haga algo.
Aprendizaje en pocos pasos
Una manera muy común de adaptar los modelos de lenguaje a nuevas tareas es usar el aprendizaje en pocos pasos. En pocos pasos se proporciona un conjunto de ejemplos de entrenamiento en la solicitud y, a continuación, se pide al modelo que complete uno o varios ejemplos sin terminar.En el ejemplo siguiente, usamos una instrucción combinada con un aprendizaje de pocos disparos para componer punciones:
Prompt | Completion |
---|---|
Escriba una lista de punciones. 1. "¿Por qué cruzó Adele por la carretera? Para saludar desde el otro lado." 2. "¿Qué clase de concierto solo cuesta 45 céntimos? Un concierto de 50 Cent con Nickelback." 3. "¿Qué dijo la uva cuando la aplastaron? Nada, solo deja salir un poco de vino". 4. "¿Cuál era la contraseña de correo electrónico de Forrest Gump? 1forrest1" 5. "¿Puede febrero marzo? No, pero abril mayo." 6. "¿A qué se le llama un modelo de lenguaje sofisticado? | Bert-uoso. |
Elija cuidadosamente sus ejemplos de pocos planos y asegúrese de que cubren una variedad de circunstancias relevantes para su escenario, incluidos los casos perimetrales.
Además, como ya se ha mencionado, los modelos de lenguaje grandes pueden presentar una forma de sesgo de recencia. Esto significa que el orden en el que se proporcionan ejemplos de "pocos planos" al modelo, es importante. Si no quiere que esto sea importante, considere la posibilidad de realizar un muestreo de varias finalizaciones de solicitudes basadas en orden aleatorios de los ejemplos o elementos de lista.
Usar comillas para generar una sola oración
Si la respuesta del modelo deseada es tan solo una sola frase o cadena simple, podemos finalizar la guía de finalización con un símbolo de comillas "
y establecer "
como una secuencia de detención.
Prompt | Completion |
---|---|
Vuelva a escribir la siguiente frase de una manera más concisa. --- FRASE: Lucy es una madre de dos, vive en Chicago con su marido y dos hijos, y ejerce el derecho en Junior & Co. --- Nueva frase: " | Lucy, madre de dos que vive en Chicago con su marido e hijos, ejerce el derecho en Junior & Co |
Especificación de la estructura de salida
El uso de la solicitud para especificar la estructura de la salida puede tener un impacto significativo en la naturaleza y la calidad de los resultados. A veces, las solicitudes de metadatos como "solo escriben hechos verdaderos" o "no inventar información" podrían no ser mitigaciones adecuadas. En su lugar, pedir que la respuesta del modelo incluya también citas puede ayudar a reducir la prevalencia de respuestas incorrectas.
Por ejemplo, si fuerza al LLM a citar la fuente cuando haga afirmaciones, es mucho más probable que esas afirmaciones estén fundamentadas. La solicitud de citas hace que el modelo deba realizar dos errores cada vez que crea una respuesta: el primer error es la respuesta fabricada y el segundo es la cita incorrecta. Tenga en cuenta que cuanto más cerca esté la cita del texto al que apoya, menor es la distancia por delante que el LLM necesita para anticipar la cita, lo que sugiere que las citas insertadas son mejores mitigaciones para la generación de contenido falso que las citas al final del contenido.
Del mismo modo, si pide al modelo que extraiga afirmaciones fácticas de un párrafo, puede extraer instrucciones compuestas como "X está haciendo Y Y Z" (que pueden ser más difícil de comprobar), lo que se puede evitar especificando una estructura de salida como (entidad1, relación, entidad2).
Detalles de ejemplo | Prompt | Completion |
---|---|---|
Ejemplo que muestra el uso de citas: | Enumere los diferentes comportamientos expuestos por el agente de atención al cliente en la siguiente conversación. --- Hola. Gracias por llamar a la farmacia Contoso. ¿Con quien hablo? Entiendo su frustración, Mary. Hum. ¿Puede explicarme detalladamente lo que quiere? Vale. Ah. Encantado de comprobarlo por usted, un momento. Aquí veo que estaba tomando un genérico de... De Lipitor. Eso es. Vale. Hum. Entonces, veo que su médico le dejó de prescribir esos medicamentos en dos mil veintiuno en realidad. Vale. Ah, sí. Claro, lo compruebo. Hum. Porque a veces hay problemas en el sistema y no se reporta, así que deme un momento que mire aquí. Vale, veo que su medico le había prescrito estos medicamentos desde desde dos mil doce y en dos mil veintiuno. Vale. Hum. Sí. Según los últimos registros proporcionados por la consulta del médico, ahora lleva una medicación distinta. ¿Quiere que sigamos con ella y le hagamos la receta para que lo pueda recoger? Relleno los datos. En quinientos miligramos. Ah, de nada, Mary. ¿Necesita alguna otra cosa? --- Cómo fue la respuesta del agente de atención al cliente. Clasifique y enumere sus distintos comportamientos y cite el motivo detrás de la clasificación, con el formato COMPORTAMIENTO("razón") | 1. Empatética("entiende la frustración del cliente") 2. Paciente("encantado de comprobarlo por usted, un momento") 3. Conocimiento("a veces hay problemas en el sistema y simplemente no se reporta") 4. Útil("feliz de comprobarlo") 5. Complaciente("quiere que sigamos con ella y le hagamos la receta") 6. Cortesía("de nada, Mary") |
Detalles de ejemplo | Prompt | Completion |
---|---|---|
Ejemplo de solicitud de solicitud de respuesta al modelo para ajustarse a una estructura definida: | Formato de salida: { "TEMA_NOMBRE": "", "TITULARES": [], "MOTIVO": "" } Titulares de noticias de entrada: 1. "De libros a presentaciones en 10 seg. con AR + ML" 2. "Demostración de 1993 de Yann LeCun con 32 años mostrando la primera red convolucional del mundo para el reconocimiento de texto" 3. "Modelo de movimientos de primer orden aplicado a la animación de pinturas" 4. "Robinhood y otros agentes literalmente bloquean la compra de $GME, $NOK, $BB, $AMC; permiten ventas" 5. "Las acciones de United Airlines caen más de un 5% antes de la apertura del mercado" 6. "El Bitcoin estaba casi en los 20.000$ un día como hoy hace un año" Salida: | {"TOPIC_NAME": "Inteligencia artificial y aprendizaje automático", "HEADLINES": ["De libros a presentaciones en 10 seg. con AR + ML", "Demostración de 1993 de Yann LeCun con 32 años mostrando la primera red convolucional del mundo para el reconocimiento de texto", "Modelo de movimientos de primer orden aplicado a la animación de pinturas"],"RAZONAMIENTO": "Estos titulares contienen referencias a inteligencia artificial y aprendizaje automático, como AR, ML, red convolucional y modelo de movimientos de primer orden". } {"TOPIC_NAME": "Mercado de valores", "TITULARES": ["Robinhood y otros agentes bloquean literalmente la compra de $GME, $NOK, $BB, $AMC; allow sells", "United Airlines stock down over 5% premarket trading", "Bitcoin era de casi $20,000 hace un año hoy"], "RAZONAMIENTO": "Estos titulares contienen referencias al mercado de valores, como Robinhood, United Airlines y Bitcoin." } |
Ajuste de los parámetros Temperature y Top_p
Cambiar el parámetro de temperatura permite que los modelos tengan niveles de riesgo diferentes. Un valor mayor, por ejemplo, 0,7 hará que la salida sea más aleatoria y genere más respuestas divergentes. Aunque un valor inferior, como 0,2, hará que la salida sea más centrada y concreta. Por ejemplo, se podría generar una historia ficticia con un valor mayor. Mientras que para generar un documento legal se recomienda usar un valor mucho menor.
En el ejemplo siguiente, se prueban dos respuestas del modelo con una configuración de temperatura diferente de 0,1 y 0,9, respectivamente. Aunque la evaluación del contenido creativo, como los fragmentos de texto siguientes, es un ejercicio dinámico y las opiniones pueden variar, la diferencia en la respuesta del modelo a la misma petición únicamente de cambiar el parámetro de temperatura es evidente.
Tipo de instrucción | Prompt | Completion |
---|---|---|
Respuesta del modelo para la configuración de temperatura 0,1: | Escribe un correo electrónico de lanzamiento de producto para los nuevos auriculares con tecnología de IA que tienen un precio de 79,99 USD y disponible en Best Buy, Target y Amazon.com. El público objetivo es los amantes de la música expertos en tecnología y el tono es amigable y emocionante. 1. ¿Cuál debe ser la línea de asunto del correo electrónico? 2. ¿Cuál debe ser el cuerpo del correo electrónico? | Línea de asunto: ¡Presentación de los auriculares AI-Powered que has estado esperando! Estimados amantes de la música Tech-Savvy, -Estamos encantados de anunciar el lanzamiento de nuestros nuevos auriculares con tecnología de IA. Estos auriculares están diseñados para proporcionarle la experiencia de escucha definitiva, con características como cancelación de ruido, configuración de los ajustes de sonido, etc. Nuestros auriculares con tecnología de IA ahora están disponibles en Best Buy, Target y Amazon.com por solo 79.99 $. Con este precio inmejorable, puede disfrutar del sonido de la más alta calidad sin gastar una millonada. Nuestros auriculares con tecnología de inteligencia artificial son perfectos para cualquier persona que ama la música. Ya seas un músico profesional o alguien que disfruta escuchando música, apreciarás la calidad de sonido superior y la comodidad de estos auriculares. Sabemos que te encantarán nuestros auriculares con tecnología de IA, así que no esperes más, ¡obtén los tuyos hoy mismo! Atentamente, |
Respuesta del modelo para la configuración de temperatura 0,9: | Escribe un correo electrónico de lanzamiento de producto para los nuevos auriculares con tecnología de IA que tienen un precio de 79,99 USD y disponible en Best Buy, Target y Amazon.com. El público objetivo es los amantes de la música expertos en tecnología y el tono es amigable y emocionante. 1. ¿Cuál debe ser la línea de asunto del correo electrónico? | Línea de asunto: actualizar la experiencia de escucha de música con auriculares con tecnología de IA ¡Saludos, amantes de la música Tech-Savvy! Tenemos algunas noticias emocionantes que compartir contigo: los últimos auriculares con tecnología de IA ya están aquí! Nuestros últimos auriculares cuentan con tecnología avanzada de inteligencia artificial para darle el mejor sonido que hayas oído. Vienen con un sonido cristalino, respuesta de bajo profundo y están diseñados para hacer que tu experiencia escuchando música sea agradable, independientemente del tipo de música que escuches. Además, ahora están disponibles en Best Buy, Target y Amazon.com por solo 79.99$, para que puedas disfrutar de la más alta calidad de sonido sin gastar una millonada. Pero eso no es todo. Nuestros auriculares también están equipados con otras características increíbles, como la tecnología de cancelación de ruido y un micrófono para llamadas con manos libres, lo que hace que sean verdaderamente inmejorables. ¿Por qué esperar? Mejora tu experiencia al escuchar música y disfruta del mejor sonido que tus oídos han oído. Nuestros auriculares con tecnología de IA ahora están disponibles en Best Buy, Target y Amazon.com ¡y pueden ser tuyos hoy mismo! Esperamos que disfrutes de estos auriculares tanto como nosotros. ¡Feliz escucha! El equipo de auriculares con tecnología de IA |
Top_probability es otro parámetro y es similar a Temperature en cuanto a que también controla la aleatoriedad de la respuesta del modelo, pero lo hace de otra manera. Experimente con diferentes respuestas del modelo variando Temperature y Top_P, pero no ambas a la vez.
Pasos siguientes
- Obtenga información sobre Azure OpenAI.
- Empiece a trabajar con el modelo ChatGPT con el inicio rápido de ChatGPT.
- Para obtener más ejemplos, consulte el repositorio de GitHub de ejemplos de Azure OpenAl
FAQs
What is the difference between OpenAI and Azure OpenAI? ›
Comparing Azure OpenAI and OpenAI
Azure OpenAI co-develops the APIs with OpenAI, ensuring compatibility and a smooth transition from one to the other. With Azure OpenAI, customers get the security capabilities of Microsoft Azure while running the same models as OpenAI.
Azure OpenAI Service runs on the Azure global infrastructure to meet your production needs, such as critical enterprise security, compliance, and regional availability. Make your deployment more secure and trusted with role-based authentication and private network connectivity.
What is Microsoft Azure used for? ›The Azure cloud platform is more than 200 products and cloud services designed to help you bring new solutions to life—to solve today's challenges and create the future. Build, run, and manage applications across multiple clouds, on-premises, and at the edge, with the tools and frameworks of your choice.
What is Microsoft Azure AI? ›Discover Azure AI—a portfolio of artificial intelligence (AI) services designed for developers and data scientists—to do more with less. Take advantage of the decades of breakthrough research, responsible AI practices, and flexibility that Azure AI offers to build and deploy your own AI solutions.
Does Elon Musk belong to OpenAI? ›Musk co-founded OpenAI in 2015, but later left the company and has since criticised its activities and funding model. He also signed an open letter calling for a pause on testing powerful AI systems and has expressed his fears about AI technology becoming dangerous.
Does Elon Musk own OpenAI? ›Musk is one of the co-founders of OpenAI, which was started as a non-profit in 2015.
Does Azure AI require coding? ›You do not need coding skills to use Microsoft Azure.
The Microsoft Azure web portal provides all the functionality you need to manage your cloud infrastructure without previous coding experience.
You can Start experimenting with $5 in OpenAI free credit that can be used during your first 3 months. Also note, you only get free credits for the first account associated with your phone number. Subsequent accounts are not granted free credits.
Is Azure AI worth it? ›Azure certifications are worth the effort in 2023. Microsoft's cloud platform is growing in popularity, and demand for Azure-certified professionals is high. Earning an Azure certification will demonstrate your expertise in this rapidly growing area and could lead to career growth opportunities.
What is Azure and why do I need it? ›Azure is a cloud computing platform and an online portal that allows you to access and manage cloud services and resources provided by Microsoft. These services and resources include storing your data and transforming it, depending on your requirements.
Do people still use Azure? ›
While Azure doesn't publish their number of current users, what we can see from Microsoft's 2020 Q2 report is that Azure revenue growth is up 62% from the same period in 2019. This will be due to a combination of customer growth and services revenue growth among current users.
What is the difference between Office 365 and Azure? ›Microsoft Azure is another enterprise cloud platform, with a much wider range of capabilities. Unlike Microsoft 365, which is a software as a service (SaaS) product, Azure has infrastructure as a service (IaaS) and platform as a service (PaaS) components.
What is the name of the Microsoft AI app? ›Microsoft recently announced its artificial intelligence (AI)-powered digital assistant named 'Copilot'. According to Microsoft CEO, Satya Nadella, the AI software has the potential to "Revolutionize how people operate fundamentally and unleash a new wave of productivity increase."
Why use Azure AI? ›Use Azure AI to add speech, vision, language, and decision capabilities to your applications, create chatbots, and uncover insights with AI-powered search.
How do I disable Azure AI? ›- Navigate to the Library Configuration tab.
- Click on More actions on the top right corner.
- Click on Settings. Checking AI Image tagging will enable it. Unchecking AI Image tagging will disable it.
- Click Save.
Musk resigned from OpenAI's board in 2018 citing a conflict of interest with his work at Tesla referring to the developments in artificial intelligence being carried out in Tesla's autonomous driving project.
Did Elon Musk invest in AI? ›Musk was recently reported to be starting his own AI-focused company by the Financial Times. The billionaire was named as a director in a business-incorporation document filed in March for a new company called X.ai Corp.
Does Google own OpenAI? ›OpenAI was created as an open source (which is why I named it “Open” AI), non-profit company to serve as a counterweight to Google, but now it has become a closed source, maximum-profit company effectively controlled by Microsoft.
What are the best AI stocks to invest in? ›Company | Market Capitalization |
---|---|
Microsoft Corp. (MSFT) | $2.3 trillion |
Amazon.com Inc. (AMZN) | $1.0 trillion |
Nvidia Corp. (NVDA) | $714 billion |
C3.ai Inc (AI) | $2.1 billion |
Can you invest in OpenAI? The short answer to this question is no. OpenAI is currently a private company. Until it has an IPO, shares are not available for public purchase.
Where to invest in AI? ›
- NVIDIA (NVDA). ...
- Taiwan Semiconductor Manufacturing (TSM). ...
- Meta Platforms (META). ...
- Amazon.com (AMZN). ...
- Microsoft (MSFT). ...
- Alphabet (GOOG). ...
- Snowflake (SNOW).
For those of you who have been wondering whether or not it's possible to learn AI without learning to code, the answer is yes! With so many different courses and resources available online, there are plenty of ways for someone with a non-coding background to get started on their AI journey.
How much do Azure AI engineers make? ›The average Azure AI engineer salary in the United States is $166,650 per year, with salaries typically ranging from $140,000 to $212,500 per year.
How much do Microsoft AI engineers make? ›Azure Ai Engineer Salary. $110,500 is the 25th percentile. Salaries below this are outliers. $167,000 is the 75th percentile.
Can anybody use OpenAI? ›OpenAI Playground: Open to Everyone
You don't need special knowledge of how machine learning systems work to play around with GPT-3. It's simple to use and easy to fine-tune; all you have to do is start with a prompt.
When you sign up for our platform, we do require a phone number for security reasons. This allows us to verify your account and ensure our platform remains secure. We don't use your phone number for any other purposes, and we take your privacy very seriously.
Do you need an account for OpenAI? ›You need to create an account on the OpenAI website to log in and access ChatGPT.
Can I get a job with Azure certification? ›A Microsoft azure certification can enable you to pursue a wide range of career options. You can become a cloud architect, a developer, or a solution architect. In addition, the certification enables you to work in various industries at different locations.
How hard is the AI 900 exam? ›The Exam AI-900 becomes a little more challenging as a result of all of this. Some questions are really tricky, so make sure you understand the difference between the terms and choose the best solution in the real environment. Moreover, there is no straightforward rule to ace the exam.
What is the downside of Azure? ›powerful and flexible cloud computing platform
drawback of Azure is that it can be complex and challenging to manage, particularly for businesses that do not have experience with cloud computing.
What is the difference between cloud and Azure? ›
So, what's the difference between the cloud and Azure? The cloud is a network of remote servers that are accessed over the internet, while Azure is a specific brand of cloud computing platform that helps organizations build, deploy, and manage applications and services.
What programming language does Azure use? ›Azure supports the most popular programming languages in use today, including Python, JavaScript, Java, . NET and Go.
What is the key benefit of Azure? ›Microsoft Azure enables users to backup virtual machines, SQL workload and on-premises VMware to streamline the data recovery and backup processes.
Does the US government use Azure? ›Azure Government is the mission-critical cloud, delivering breakthrough innovation to US government customers and their partners. Only US federal, state, local, and tribal governments and their partners have access to this dedicated instance, with operations controlled by screened US citizens.
Does Netflix use AWS or Azure? ›Netflix uses AWS for almost everything cloud computing. That includes online storage, recommendation engine, video transcoding, databases, and analytics.
Does Netflix use Azure? ›Currently, Netflix uses Amazon's AWS for cloud storage. With Microsoft Azure, Netflix may no longer need AWS. That'll save the streaming service money on cloud costs. Plus, with Microsoft, Netflix can meaningfully enter the gaming space.
Do I need Azure for Office 365? ›Microsoft 365 uses Azure Active Directory (Azure AD) to manage user identities behind the scenes. Your Microsoft 365 subscription includes a free Azure AD subscription so that you can integrate your on-premises Active Directory Domain Services (AD DS) to synchronize user accounts and passwords or set up single sign-on.
Do I need Microsoft 365 for Azure? ›While Azure can be a standalone subscription, it is a part of an Office 365 subscription. In other words, if you have a paid Office 365 subscription, you are using Azure services. Office 365 users are using the Azure Active Directory (Azure AD) services to manage identities.
What is the main difference between Office 365 and Microsoft 365? ›Office 365 is a suite of cloud-based productivity applications such as Microsoft Office, SharePoint, Teams, OneDrive, Yammer, OneNote, etc. Microsoft 365, however, is a combination of services that blends together Office 365, Windows 10 OS, and Enterprise Mobility + Security.
Which OpenAI model should I use? ›We recommend using gpt-3.5-turbo over the other GPT-3.5 models because of its lower cost. OpenAI models are non-deterministic, meaning that identical inputs can yield different outputs. Setting temperature to 0 will make the outputs mostly deterministic, but a small amount of variability may remain.
Which is the most powerful OpenAI? ›
GPT-4 is OpenAI's most advanced system, producing safer and more useful responses.
What is better than OpenAI? ›The best alternatives to OpenAI are Writesonic, DhiWise, and Andi. If these 3 options don't work for you, we've listed over 60 alternatives below.
What are people using OpenAI for? ›They are capable of generating human-like text and have a wide range of applications, including language translation, language modelling, and generating text for applications such as chatbots. GPT-3 is one of the largest and most powerful language processing AI models to date, with 175 billion parameters.
Are OpenAI models free? ›There is not a free version of any model except for codex. The pricing can be found on openai's pricing page.
What do you use OpenAI for? ›The OpenAI API can be applied to virtually any task that involves understanding or generating natural language, code, or images. We offer a spectrum of models with different levels of power suitable for different tasks, as well as the ability to fine-tune your own custom models.
Which AI defeated the best brain on earth? ›But this changed with an AI called AlphaGo developed by London-based research firm DeepMind. AlphaGo defeated multiple Go champions, including the then number one ranked human player.
What is the smartest AI in the world right now? ›GPT-3 (OpenAI)
GPT-3 is said to be one of the most advanced language models ever made, trained on terabytes of data containing 175 billion parameters, compared to Turing NLG by Microsoft has 17 billion parameters.
Meet The First Of AI Agents: AutoGPT
Being able to act autonomously makes it probably one of the most powerful AI tools available presently. This AI Agent can carry out any task with little human intervention and can self-prompt as required.
PaLM is a large language model, or LLM, similar to the GPT series created by OpenAI or Meta's LLaMA family of models. Google first announced PaLM in April 2022. Like other LLMs, PaLM is a flexible system that can potentially carry out all sorts of text generation and editing tasks.
Who is the competitor to OpenAI? ›OpenAI's alternatives and competitors. See how OpenAI compares to similar products. OpenAI's top competitors include Anthropic, Mindverse, and Pryon. Anthropic provides AI safety and research services that specialize in developing general AI systems and language models.
What is the best AI right now? ›
The best overall AI chatbot is the new Bing due to its exceptional performance, versatility, and free availability. It uses OpenAI's cutting-edge GPT-4 language model, making it highly proficient in various language tasks, including writing, summarization, translation, and conversation.
Are there any dangers of AI? ›Real-life AI risks. There are a myriad of risks to do with AI that we deal with in our lives today. Not every AI risk is as big and worrisome as killer robots or sentient AI. Some of the biggest risks today include things like consumer privacy, biased programming, danger to humans, and unclear legal regulation.
Is AI harmful or not? ›Even when AIs aren't used maliciously, they can spread dangerous misinformation. Artificial intelligence learns from the information spread into it, which means falsehoods spread by users can alter how an AI responds.