⚡ Não perca: notícia importante no ar! ⚡

Sua opinião é importante: leia e participe!

Apoie esse projeto de divulgacao de noticias! Clique aqui


A OpenAI anunciou nesta quarta-feira (29) dois novos modelos de inteligência artificial projetados para ajudar desenvolvedores a classificar riscos à segurança online em suas plataformas.

Chamados gpt-oss-safeguard-120b e gpt-oss-safeguard-20b, os modelos são versões refinadas dos gpt-oss lançados em agosto e têm tamanhos diferentes, refletidos nos nomes.

Transparência e controle com modelos de peso aberto
  • Os modelos são do tipo “peso aberto”, o que significa que seus parâmetros estão disponíveis publicamente.
  • Isso permite maior transparência e controle sobre como as saídas e previsões são geradas, embora não sejam totalmente decódigo aberto, cujocódigo-fontepode ser modificado pelos usuários.
  • Segundo a OpenAI, as organizações podem configurar os modelos para suas políticas específicas, obtendo uma visão direta de como cada decisão é tomada.
  • Por exemplo, sites de avaliações podem filtrar comentários falsos e fóruns de videogames podem classificar postagens sobre trapaças.


Leia também:
  • Como usar ChatGPT para criar imagem no estilo do Studio Ghibli
  • Como fazer música com ChatGPT
  • Como usar o modo adulto no ChatGPT – entenda o que muda nas conversas com a IA


Parcerias e comunidade de segurança

O desenvolvimento dos modelos contou com a colaboração da ROOST (Robust Open Online Safety Tools), do Discord e do SafetyKit.

Inicialmente, os modelos estão em pré-visualização para pesquisa, com a OpenAI buscando feedback de pesquisadores e profissionais de segurança. A ROOST também está criando uma comunidade de modelos para apoiar o uso seguro da IA em espaços online.

O lançamento surge em um momento em que a OpenAI enfrenta críticas sobre crescimento rápido e ética, após a conclusão de sua recapitalização, que consolidou sua estrutura como organização sem fins lucrativos com participação majoritária em negócios lucrativos.

Segundo Camille François, presidente da ROOST, “À medida que a IA se torna mais poderosa, as ferramentas de segurança e a pesquisa em segurança devem evoluir na mesma velocidade – e devem ser acessíveis a todos.” Usuários elegíveis podem baixar os pesos dos modelos no Hugging Face.
Siga Canal Fsociety para mais novidades:
Instagram | Facebook | Telegram | Twitter
#samirnews #samir #news #boletimtec #openai #lança #modelos #de #ia #para #detectar #riscos #e #proteger #comunidades #online
⚡ Fique ligado: novidades e promoções em breve por aqui! ⚡

Post a Comment