O ChatGPT agora tem um recursos de memória para lembrar tudo o que precisa para deixar a experiência de uso mais agradável. O que isso muda para o usuário? Será uma boa novidade ou isso pode trazer problemas? É justamente esse o assunto abordado por Diogo Cortiz, colunista de Tilt, nesta semana. Esse movimento é ótimo para a OpenAI por dois motivos principais. - OpenAI irá conhecer cada vez mais as preferências, gostos e necessidades das pessoas sem ter que inferir por dados indiretos (likes, compartilhamentos, pesquisas, etc). Usará apenas a própria autodeclaração das pessoas. Se combinar esse tipo de informação com dados indiretos, a IA vira uma ferramenta poderosíssima de relevância e personalização.
- O segundo motivo está relacionado com o próprio desenvolvimento da tecnologia. Essas IAs conversacionais, também chamadas de Modelos de Linguagem, estão próximas de atingir um platô de desempenho em que muitas delas vão ter comportamentos parecidos. Assim, a escolha por uma ou outra será influenciada pela familiaridade com a ferramenta, outras funcionalidades e a facilidade de acesso.
A OpenAI está conseguindo criar um ecossistema relevante em torno do ChatGPT. O lançamento de funcionalidades de customizações (Memória, GPTs, etc) ajudam a fortalecer o vínculo dos usuários com o ecossistema do ChatGPT. E isso pode fazer o ChatGPT mais interessante em relação aos seus concorrentes. No universo das redes sociais, discutimos o "efeito de rede", fenômeno no qual o valor de uma plataforma aumenta à medida que mais pessoas a utilizam. É tão difícil desbancar Facebook, Instagram e X porque o valor está no ecossistema de conexões entre pessoas e conteúdos que elas hospedam. Algo parecido pode acontecer no universo da IA. É o "efeito personalização". As pessoas ficarão dependentes das personalizações das IAs que vão ter preguiça de usar — ou migrar — para outras plataformas de chatbots. A personalização das IAs é o próximo grande movimento que devemos acompanhar no curto prazo. Esse tipo de inovação traz melhorias no desempenho do modelo e na experiência de uso. Mas, claro que também há possíveis problemas a serem discutidos. A privacidade é um deles. Embora a OpenAI tenha implementado mecanismos de controle para as pessoas poderem apagar suas memórias, a empresa deixa claro em seu anúncio que poderá usá-las para o treinamento dos próximos modelos. O encolhimento da pluralidade sobre a realidade é outra preocupação. Se o tal do algoritmo que monta os "feeds" em redes sociais é um mecanismo sensível para a formação de bolhas que moldam a percepção das pessoas, o que dizer de uma IA customizada que pode, no limite, responder apenas o que as pessoas querem ler e ouvir? |
Nenhum comentário:
Postar um comentário