Since you're writing out the wave file, it would be nice to be able to convert existing online material to stored waves that can be retrieved at a later date to provide "podcast" like capability for listening while performing some other duty that would not allow you to be hands on. Perhaps a way to "paste in" content and store rather than have the final result be short-lived.
<br><br>Todd<br><br><div class="gmail_quote">On Jan 10, 2008 12:11 PM, Tom Hannen <<a href="mailto:tomhannen@gmail.com">tomhannen@gmail.com</a>> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I think it would be great to combine the features from this and<br>TalknType (if I can get it working in Sugar)...<br><a href="http://wiki.laptop.org/go/TalknType" target="_blank">http://wiki.laptop.org/go/TalknType</a><br>
<br>By the way, if you want to look up stuff about mouth shapes for<br>phoneme animation, check out "Visemes"<br><a href="http://del.icio.us/search/?p=viseme&type=all" target="_blank">http://del.icio.us/search/?p=viseme&type=all
</a><br><br>Tom<br><div><div></div><div class="Wj3C7c"><br><br>On Jan 10, 2008 8:05 PM, Joshua Minor <<a href="mailto:j@lux.vu">j@lux.vu</a>> wrote:<br>><br>> On Jan 10, 2008, at 11:23 AM, Edward Cherlin wrote:
<br>><br>> > On Jan 10, 2008 1:27 AM, Joshua Minor <<a href="mailto:j@lux.vu">j@lux.vu</a>> wrote:<br>> >> Hi everyone,<br>> >>    I made a new activity called Speak....<br>> >><br>
> >> <a href="http://wiki.laptop.org/go/Speak" target="_blank">http://wiki.laptop.org/go/Speak</a><br>> ><br>> > This is wonderful, because it will allow children to experiment with<br>> > language, not just type in normal text.
<br>><br>> :)<br>><br>> ><br>> > In espeak, phoneme sets and orthographies can be added for any<br>> > language. Do you support this?<br>><br>> Speak calls the espeak command line tool to query the available
<br>> languages as well as to generate the audio, so any new or changed<br>> voices in espeak will show up in Speak automatically.  It does filter<br>> out the Mbrola voices because they don't actually produce sound.  I
<br>> plan to experiment with calling espeak via their API but I will make<br>> sure to avoid any limitation on the set of languages.<br>><br>> > Can this or the Screen Reader project be adapted to reading content,
<br>> > such as the children's picturebooks provided in the Library? (We would<br>> > presumably need a text file to go with each document.)<br>> ><br>> > I think that it would be a great boost for child and adult literacy
<br>> > both if little children could sit on their parents' or grandparents<br>> > laps and have the XO read them both a story.<br>><br>> XO is the new Teddy Ruxpin :)<br>><br>> I was thinking of adding a toolbar tab to allow for some sort of game/
<br>> story/lesson modes.  It would be cool if someone could write a plugin/<br>> extension for a guessing game, story reader, spelling game (ala<br>> TalknType) or something like that.  I have also considered wrapping
<br>> Speak into a reusable component so other activities could add a<br>> talking face easily.  I'm not sure of the best way to do this.<br>><br>> > In that same vein, would anybody be interested in creating a karaoke
<br>> > activity? Same-language captioning of Bollywood musicals is claimed to<br>> > be the most effective literacy measure in India.<br>><br>> That would be awesome!<br>><br>> >> Also, if anyone has experience or ideas on how to get access to
<br>> >> espeak's per-phoneme timing data from python, please let me know.<br>> >><br>> >> -josh<br>> ><br>> > Do you want to do that while running, or would a precomputed table<br>
> > meet your needs?<br>><br>> I would like to get callbacks for each phoneme while the voice is<br>> playing, so that I can shape the mouth correctly for each one.  If<br>> done well, this could be a nice visual cue to help understand the voice.
<br>><br>> I would also have to rework how espeak is wired up to gstreamer.<br>> Right now I have espeak write out a wav file and then I play that<br>> back via the gst module.  I wasn't able to get them piped together in
<br>> a reliable way.  Specifically when I run espeak --stdout and then<br>> attach that to a gst pipeline that starts with an fdsrc, it only<br>> works once.  I was not able to restart or rebuild a new pipeline to
<br>> speak another sentence.<br>><br>> -josh<br>><br>> _______________________________________________<br>> Sugar mailing list<br>> <a href="mailto:Sugar@lists.laptop.org">Sugar@lists.laptop.org</a><br>
> <a href="http://lists.laptop.org/listinfo/sugar" target="_blank">http://lists.laptop.org/listinfo/sugar</a><br>><br></div></div>_______________________________________________<br>Devel mailing list<br><a href="mailto:Devel@lists.laptop.org">
Devel@lists.laptop.org</a><br><a href="http://lists.laptop.org/listinfo/devel" target="_blank">http://lists.laptop.org/listinfo/devel</a><br></blockquote></div><br>